Comme un individu comblant les vides de sa mémoire par des fantasmes, l’intelligence artificielle n’hallucine pas, elle affabule. Ce mécanisme, loin d’être anecdotique, affecte des domaines entiers : droit, journalisme, édition, code informatique. Derrière le mot trompeur “d’hallucination” se cache une défaillance structurelle, coûteuse et persistante, qui mine la fiabilité et la productivité. Tant qu’elle affabulera, l’IA ne pourra être qu’un outil sous surveillance humaine, qui déplace le travail, plutôt que de le remplacer.
Un affabulateur n’est pas un menteur au sens classique. Il ne trompe pas volontairement. Il invente pour combler un vide, souvent sans même s’en rendre compte. Il cherche à maintenir une cohérence interne de son discours, pas à manipuler autrui. Ce mécanisme, que le psychiatre Sergueï Korsakoff qualifie de confabulation, consiste à fabriquer une explication plausible lorsqu’on ne sait pas ou qu’on a oublié. L’affabulateur parle avec assurance, et parfois avec précision, mais il ne sait pas qu’il dit faux.
Cette nuance est cruciale : contrairement à un menteur, on ne peut pas “le coincer” en prouvant sa mauvaise foi. Il croit vraiment ce qu’il dit. Cela le rend d’autant plus difficile à détecter (et à neutraliser) dans les milieux professionnels.
Dans certains secteurs, l’affabulation n’est pas une simple bizarrerie : elle peut mettre en péril des vies ou des institutions. En médecine, en droit, dans la justice ou la sécurité publique, en politique comme dans la presse, l’exactitude des faits n’est pas un luxe. C’est même une condition de fonctionnement propre à la démocratie.
En 2024, une étude de Stanford RegLab et HAI a révélé que même les modèles d’IA juridiques commettent des erreurs, au minimum dans une requête sur six, malgré leur spécialisation et les jeux de données sectoriels utilisés.
Le fait est que peu de domaines en réchappent. L’affabulation ne tue pas toujours, mais au minimum, elle mine la productivité. Dans l’écriture d’un livre, comme dans la traduction automatique ou la conception d’un projet, ces “hallucinations” s’infiltrent dans les rouages. On passe des heures à vérifier, à corriger, à réécrire. L’erreur initiale semble minime, mais elle se répercute sur tout le processus. C’est une fuite lente mais massive. Les équipes finissent par consacrer une part croissante de leur travail non pas à créer, mais à réparer une réalité polluée par de fausses affirmations.
Le retour à l’humain de nombreuses entreprises, comme Klarna, en Suède, montre que les LLM (les grands modèles de langages) ne sont pas encore assez fiables. Tant que l’IA affabule, il faut de l’humain pour la contrôler.
Ces affabulations sont qualifiées à tort “d’hallucination” dans le langage courant. Un mot (marketing sans doute) emprunté au vocabulaire médical qui atténue la gravité du phénomène. Il évoque une défaillance passagère, alors qu’il s’agit en réalité d’un mécanisme structurel. L’IA génère du plausible, pas du vrai. Elle ne sait pas quand elle a tort, parce qu’elle ne sait rien, elle calcule. Contrairement à un humain, elle ne perçoit pas son erreur. Elle affabule par nature : là où il manque une information, elle invente une réponse vraisemblable, elle remplace. Ce n’est pas un bug. C’est son fonctionnement même.
Plusieurs chercheurs reviennent d’ailleurs sur le terme utilisé, préférant parler de “confabulation”. Une étude publiée dans la revue Nature illustre cette approche. Considérant ces erreurs comme des phénomènes structurels, ses auteurs proposent des méthodes pour les détecter systématiquement.
Dans le journalisme, l’affabulation des IA peut produire des citations inexistantes ou attribuer des faits à de mauvaises sources, sapant la crédibilité d’un média en quelques lignes bien tournées. Dans le monde de l’édition, elle peut parsemer un texte de détails incohérents, le rendant médiocre. Dans l’éducation, elle peut inventer une histoire qui n’a jamais eu lieu et simuler des déductions sur des bases erronées.
Dans le domaine du code informatique, où on parle de plus en plus de “vibe coding” (du code fait par des non-codeurs avec l’aide de l’IA), le danger se fait plus tangible encore. Les IA de programmation peuvent générer des lignes parasites, créer des failles de sécurité ou réutiliser des pratiques obsolètes. L’application fonctionne, mais avec des vulnérabilités dormantes. Chaque ligne d’apparence anodine devient une bombe à retardement : dette technique, coûts de maintenance, surface d’attaque accrue. Ce qui est vendu comme un gain de productivité peut, en réalité, multiplier les risques et les dépenses.
« J’ai l’impression que le terme “vibe coding” est désormais bien établi pour désigner cette manière rapide, désinvolte et irresponsable de développer des logiciels avec l’IA […] », ironise Simon Willison, ingénieur logiciel et figure influente de la communauté open source, à l’origine du concept de “prompt injection” (injection rapide)1.
Dès lors, en dehors des considérations écologiques, la question n’est pas de savoir si l’IA est “bonne” ou “mauvaise”. Elle affabule, c’est un fait structurel. La véritable question est : “qu’acceptons-nous de confier à un affabulateur ?”
Confier la production d’informations fiables à une IA, c’est comme remettre les clés d’une voiture à quelqu’un qui ne connait pas le code de la route. L’accident est inévitable. Cela peut être tolérable dans des espaces créatifs sécurisés, jamais dans la zone critique de la réalité.
Est-ce que cela signifie qu’il faut bannir ces outils ? En tout cas, il vaut mieux le traiter comme un générateur d’hypothèses, et non comme un porteur de savoir. Les intégrer exige une culture de vérification systématique, une architecture de responsabilité humaine, et une lucidité sur leur nature. Et parfois, cela n’en vaut juste pas le coût.
Ikarr Costa
altermidi, c’est un média indépendant et décentralisé en régions Sud et Occitanie.
Ces dernières années, nous avons concentré nos efforts sur le développement du magazine papier (16 numéros parus à ce jour). Mais nous savons que l’actualité bouge vite et que vous êtes nombreux à vouloir suivre nos enquêtes plus régulièrement.
Et pour cela, nous avons besoin de vous.
Nous n’avons pas de milliardaire derrière nous (et nous n’en voulons pas), pas de publicité intrusive, pas de mécène influent. Juste vous ! Soutenez-nous par un don ponctuel ou mensuel, chaque contribution, même modeste, renforce un journalisme indépendant et enraciné.
Si vous le pouvez, choisissez un soutien mensuel. Merci.
Notes:
- Les attaques par injection d’impulsion sont une menace pour la sécurité de l’IA, menace de sécurité principale pour les grand modèles de langages (LLM), dans laquelle un attaquant manipule l’invite d’entrée (instruction qui agit comme un cadre directeur qui définit la portée, le contexte ou le format de la réponse de l’IA) dans les systèmes de traitement du langage naturel (NLP) pour influencer la sortie du système (réponse souhaitée).







