Un discours de rentrée piégé par l’IA : anatomie d’un faux pas académique
En septembre, pour son premier discours de rentrée, la rectrice de l’université de Gand, Petra De Sutter, utilise un outil d’IA pour insérer des citations inspirantes. Parmi elles, une phrase attribuée à Albert Einstein, prétendument prononcée à la Sorbonne en 1929 : « Le dogme est l’ennemi du progrès. » [2][3]
Problèmes :
- Einstein ne l’a jamais dite ;
- la citation de Paul Verhaeghe, censée venir de Wijsheid, est introuvable ;
- un propos de Hans Jonas est tronqué au point de déformer sa pensée. [2]
L’IA a produit des formulations plausibles mais fausses, présentées comme authentiques. Aucun professeur ne relève l’erreur sur le moment. Ce n’est qu’en janvier, après une enquête d’Apache, que l’usage de l’IA et ses erreurs sont révélés, poussant la rectrice à admettre qu’elle a été « piégée » et à s’excuser publiquement. [1][2]
⚠️ Point clé – Quand l’anecdote devient symptôme
L’incident révèle :
- l’incapacité collective à détecter une fausse attribution grossière ;
- la délégation d’autorité intellectuelle à un outil opaque ;
- la réécriture a posteriori du discours sur le site de l’université, signe d’un malaise institutionnel. [2]
Les hallucinations de l’IA entrent ainsi au cœur de la sphère symbolique universitaire : la parole officielle de la direction. L’affaire ouvre un débat sur la place de ces outils dans la production du savoir.
Cet article a été généré par CoreProse
en 1m 23s avec 5 sources vérifiées Voir les sources ↓
Les hallucinations de l’IA : limites techniques, angles morts éthiques et cadre réglementaire émergent
Les modèles de langage n’« savent » pas, ils extrapolent. Ils recombinent statistiquement des segments de textes pour produire une suite de mots cohérente, sans garantie de vérité. [3]
La fausse citation d’Einstein illustre ce mécanisme :
- le modèle associe des termes fréquents autour d’Einstein (dogme, progrès, science, esprit critique) ;
- il génère une phrase qu’il aurait « pu » dire, mais qui n’existe pas. [3]
Hugues Bersini (ULB) décrit ce phénomène comme une recombinaison de morceaux de citations existantes, créant une phrase « sensée » mais historiquement inexistante. Il insiste sur la nécessité d’une vérification humaine, surtout pour des citations d’autorité en contexte académique. [3]
💡 À retenir – Pourquoi les discours sont à haut risque
Les hallucinations sont favorisées lorsque :
- le vocabulaire est large et polysémique (philosophie, essais, discours) ;
- le ton attendu est rhétorique ou inspirant ;
- le système est incité à produire des références « brillantes ». [3]
Dans une université, cela heurte la « déontologie du savoir », fondée sur :
- traçabilité des sources ;
- citabilité ;
- reproductibilité des énoncés.
Laisser passer ces inventions fragilise l’oratrice et l’institution, qui semble relâcher son exigence de preuve. [2][3]
En parallèle, le droit européen encadre mieux la responsabilité des acteurs de l’IA. Le règlement sur l’intelligence artificielle impose aux développeurs de grands modèles de fondation de :
- documenter publiquement les données d’entraînement ;
- préciser types de sources, présence de contenus sous licence, principaux sites collectés. [5]
Cette transparence permet aux créateurs de vérifier l’usage de leurs œuvres et pose un principe : un modèle puissant ne peut plus être totalement opaque sur ses sources. [5]
⚡ Enjeu éthique
Si l’on exige des fournisseurs de modèles une transparence accrue, comment accepter que les universités se contentent d’un usage :
- sans explicitation des données sous-jacentes ;
- sans prise en compte systématique des mécanismes d’hallucination ? [5]
Ce décalage entre exigences réglementaires externes et pratiques internes rend l’affaire De Sutter emblématique.
Vers une stratégie universitaire de l’IA : gouvernance, déontologie et pratiques concrètes
La question n’est pas d’interdire l’IA, mais de la gouverner. Une stratégie crédible repose au minimum sur :
- des règles d’usage explicites ;
- une relecture humaine obligatoire des contenus générés ;
- une traçabilité interne des passages issus de l’IA ;
- une transparence vis‑à‑vis des publics sur l’usage de ces outils.
Les universités peuvent s’inspirer de la logique documentaire de l’AI Act :
- décrire les sources et méthodes de construction des modèles ;
- indiquer, dans un discours ou un support pédagogique, quand et comment l’IA a été utilisée, et pour quelles parties précises. [5]
📊 Parallèle utile – De la cybersécurité à l’« IA de confiance »
La qualification SecNumCloud de l’ANSSI repose sur plus de 1 200 exigences pour attester d’un cloud de confiance. [4] De même, un référentiel interne d’« IA de confiance » pourrait fixer :
- les usages autorisés (brouillons, résumés, mais pas citations non vérifiées) ;
- les processus de validation humaine ;
- les obligations de documentation et d’archivage.
flowchart LR
A[Idée de discours] --> B[Brouillon humain]
B --> C[Appel à l'IA]
C --> D[Marquage des ajouts IA]
D --> E[Fact-checking humain]
E --> F[Validation rectorale]
F --> G[Publication transparente]
style C fill:#f59e0b,color:#fff
style E fill:#22c55e,color:#fff
La formation devient centrale : recteurs, enseignants et étudiants doivent savoir :
- ce qu’est une hallucination ;
- comment la détecter ;
- comment l’articuler avec les méthodes bibliographiques classiques. [3]
💼 Cas d’école à exploiter
L’erreur de Petra De Sutter peut servir de support pédagogique pour :
- repérer des fausses citations ;
- comparer versions « IA » et textes sources authentiques ;
- débattre de la responsabilité personnelle quand on délègue une partie de sa parole à un outil automatisé. [1][2]
En assumant publiquement ce retour d’expérience, un établissement peut transformer un scandale ponctuel en levier de crédibilité.
Conclusion : de la mésaventure individuelle à la politique institutionnelle
La mésaventure de l’université de Gand révèle un double déficit :
- compréhension insuffisante des mécanismes de l’IA ;
- culture de vérification affaiblie au sommet de l’institution.
En alignant leurs pratiques sur les exigences européennes de transparence et de responsabilité, les universités peuvent :
- restaurer la confiance dans la parole académique ;
- intégrer l’IA comme outil puissant, mais encadré ;
- réaffirmer que, même à l’ère des modèles de langage, la rigueur des sources reste non négociable.
Sources & Références (5)
- 1Petra De Sutter, rectrice de l’université de Gand, ancienne députée écologiste, a utilisé l’intelligence artificielle pour son discours de rentrée, se faisant piéger par les erreurs de celle-ci. L’affaire a été révélée début janvier et ouvre à nouveau le débat au sein du monde universitaire.
Petra De Sutter, rectrice de l’université de Gand, ancienne députée écologiste, a utilisé l’intelligence artificielle pour son discours de rentrée, se faisant piéger par les erreurs de celle-ci. L’aff...
- 2En Belgique, une présidente d’université prise au piège des hallucinations de l’IA lors d’un discours de rentrée
«Le dogme est l’ennemi du progrès.» Cette citation d’Albert Einstein était incluse dans le discours inaugural prononcé en septembre par Petra De Sutter, 62 ans, la nouvelle rectrice de l’université de...
- 3Le dogme est l’ennemi du progrès', la phrase qu’Einstein n’a jamais prononcée ou comment l’IA crée des 'hallucinations' - RTBF Actus
« Le dogme est l’ennemi du progrès », la phrase qu’Einstein n’a jamais prononcée ou comment l’IA crée des "hallucinations" — RTBF Actus Sauf que cette phrase, le scientifique ne l’a jamais prononcée....
- 4Cloud souverain, cybersécurité post-quantique et guerre des GPU : la tech entre confiance, puissance et régulation
Revue exPress' - Cette semaine, IA responsable, cybersécurité, guerre des GPU et cloud. Fiona Slous, Journaliste | Alliancy média Publié le 9 janv. | Mis à jour le 15 janv. Lecture 3 min. Fiona Slou...
- 5Les géants de l’IA encore loin des exigences de transparence de l’UE | Euractiv FR
En vertu du règlement européen sur l’IA (AI Act), les entreprises qui développent des modèles de fondation à grande échelle, tels que ceux qui sous-tendent les chatbots populaires comme ChatGPT ou Gem...
Généré par CoreProse in 1m 23s