L’IA se trompe avec assurance. Votre CODIR aussi.
Il y a un point commun fascinant entre une IA générative et un comité de direction.
Les deux produisent des réponses fluides, structurées, convaincantes. Les deux inspirent confiance par leur aplomb. Et les deux peuvent se tromper spectaculairement — sans que personne dans la salle ne lève la main.
Ce parallèle n’est pas une provocation. C’est une observation que je fais depuis des années : d’abord comme CTO et DG confronté à des arbitrages technologiques majeurs, puis comme mentaliste sur scène.
Les mécanismes sont les mêmes. Et c’est précisément ce qui rend le sujet dangereux.
Sur scène, je peux provoquer une évidence. En réunion, une IA peut produire la même sensation : “c’est clair, donc c’est vrai.” Et lorsque cette clarté n’est pas challengée, la confiance se transforme en pilote automatique.
Les 4 illusions que l’IA et votre cerveau partagent
1 - L’illusion d’autorité
Une IA générative produit des réponses avec aplomb, y compris quand elles sont approximatives ou fausses. Non pas parce qu’elle “ment”, mais parce que son objectif est de générer une suite plausible — pas de ressentir le doute.
Et notre cerveau, lui, confond facilement confiance et compétence. Une réponse assurée paraît plus crédible, indépendamment de sa vérité.
Un mentaliste le sait bien : l’aplomb fabrique de la crédibilité.
Dans un CODIR, c’est identique. Le dirigeant qui parle avec le plus d’assurance oriente la décision. Pas nécessairement celui qui a raison. Celui qui doute à voix haute perd en influence — même quand son doute est le signal le plus précieux de la pièce.
2 - L’illusion de cohérence
Une réponse bien structurée paraît juste. C’est un raccourci mental puissant : si c’est clair, c’est vrai.
L’IA excelle à produire des textes parfaitement organisés — introduction, arguments, conclusion — qui peuvent être factuellement faux de bout en bout. La forme est impeccable. Le fond peut être fragile.
En réunion, même dynamique. Une présentation fluide, des slides propres, un raisonnement linéaire : le cerveau baisse la garde. On confond la qualité de la forme avec la solidité des hypothèses.
J’ai vu des investissements de plusieurs millions validés sur la base de présentations impeccables dont personne n’avait réellement testé les prémisses. Pas par négligence. Par confort : quand c’est bien écrit, le doute semble moins nécessaire.
3 - L’illusion d’alignement
Une IA est optimisée pour être utile et acceptable. Elle tend donc naturellement à proposer une réponse qui “colle” au contexte et au ton de la demande. Elle challenge rarement spontanément.
C’est une force… jusqu’au moment où l’organisation confond “réponse satisfaisante” et “réponse robuste”.
Dans un CODIR, le biais de confirmation circule dans les deux sens : le dirigeant cherche les données qui confortent sa vision, et l’équipe produit les analyses qui répondent aux attentes implicites du dirigeant. Tout le monde est d’accord. Personne n’a vérifié ce qui aurait dû être contredit.
Le danger n’est pas l’erreur. Le danger, c’est l’unanimité confortable.
4 - L’illusion de contrôle
Vous croyez piloter l’outil. Mais la manière dont une IA formule une réponse formate votre pensée : elle cadre les options, propose le vocabulaire, fixe le périmètre de ce qui semble possible.
Elle ne “décide” pas. Elle structure l’espace mental dans lequel vous allez décider.
En réunion, le premier cadrage posé (par un dirigeant, par un consultant, par un document de synthèse) fait exactement la même chose. Il ne tranche pas. Mais il délimite la carte. Et, ensuite, tout le monde débat… à l’intérieur. Et personne ne s’en aperçoit.
L’oeil du mentaliste
Quand un humain biaisé utilise un outil optimisé pour le plausible afin de valider une décision déjà orientée, on n’obtient pas de l’intelligence augmentée. On obtient de la certitude augmentée. Mon rôle : réintroduire le doute utile avant que ça devienne un pilote automatique.
Le vrai sujet n’est pas technologique
La plupart des conférences sur l’IA parlent de modèles, de prompting, de productivité, de gouvernance technique. Tout cela est utile. Mais le sujet le plus important est ailleurs.
Le vrai risque de l’IA en entreprise, ce n’est pas qu’elle se trompe. C’est qu’elle se trompe de la même manière que nous, et qu’en la combinant avec nos propres biais, on amplifie les erreurs au lieu de les corriger.
Une IA ne “croit” rien : elle produit une réponse plausible. Le danger commence quand nous confondons plausibilité et vérité.
Quand un humain biaisé utilise un outil optimisé pour produire une réponse plausible afin de valider une décision déjà orientée, le résultat n’est pas de l’intelligence augmentée. C’est de la certitude augmentée.
C’est exactement ce que le mentalisme rend visible. Sur scène, je montre en temps réel comment le cerveau du public fonctionne comme une IA : il produit des réponses rapides, fluides, convaincantes — et parfois complètement fausses.
Le moment où la salle réalise qu’elle vient de se faire piéger par sa propre fluidité cognitive est le moment où tout bascule. Parce que, soudain, on ne parle plus d’un concept. On parle d’une expérience vécue.
Le vrai problème n’est pas l’erreur. C’est la confiance non questionnée.
D.I.R.E. — Quatre réflexes pour garder le volant
J’ai construit un protocole simple, issu de mon expérience de direction et de mes années sur scène :
D — Décider ce qui reste humain.
Certaines décisions sont non-délégables. Les identifier avant de “brancher” l’IA, pas après.
I — Interroger chaque output.
Tester contre le réel. Chercher le contre-exemple. Demander à l’IA de défendre la position inverse — puis de critiquer sa propre réponse.
R — Refuser la prose.
Exiger des preuves, pas de l’éloquence. “C’est bien écrit” n’a jamais été un critère de vérité.
E — Encadrer l’usage.
Des règles claires, des limites explicites, une gouvernance qui ne repose pas sur la bonne volonté individuelle.
La question de 2026
En 2026, la question n’est plus : “faut-il adopter l’IA ?” Vos équipes l’utilisent déjà. Tous les jours. Souvent sans que vous le sachiez. La vraie question est : qui décide quand l’IA se trompe avec assurance ?
Si personne dans votre organisation ne sait répondre à cette question, alors l’IA ne vous assiste pas. Elle vous pilote.
Et le mentaliste que je suis vous le confirme : quand quelqu’un vous pilote sans que vous le sachiez, ce n’est plus de l’assistance. C’est de l’influence.
VOTRE LEVIER
En 2026, l’IA ne doit pas être un bandeau sur les yeux, mais un miroir. La vraie différence n’est pas dans l’adoption de l’outil, mais dans la capacité du leader à rester maître du levier de décision — même face à l’assurance d’un algorithme.
Et si vous appreniez à vos équipes à ne plus se faire piloter par leurs propres certitudes ? Découvrez mes interventions sur l'IA et la décision humaine lors de mes Conférences Signature.
Sources
Pour aller plus loin, voici les études et revues scientifiques citées dans cet article.
Huang, L., Yu, W., Ma, W., Zhong, W., Feng, Z., Wang, H., … & Liu, T. (2023). A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions. arXiv:2311.05232. [Aussi publié dans ACM Transactions on Information Systems, 43(2), 2024.] [Le panorama de référence sur les hallucinations des LLM : pourquoi les IA génèrent du contenu plausible mais factuellement faux, et comment les détecter.]
Sahoo, P., Meharia, P., Ghosh, A., Saha, S., Jain, V., & Chadha, A. (2024). Unveiling Hallucination in Text, Image, Video, and Audio Foundation Models: A Comprehensive Review. Findings of EMNLP 2024. [Une revue multimodale des hallucinations : au-delà du texte, les modèles « hallucinent » aussi en image, vidéo et audio.]
Parasuraman, R., & Riley, V. (1997). Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors, 39(2), 230–253. [L'article fondateur sur les relations humain-machine : nous sur-utilisons, sous-utilisons et abusons de l'automatisation selon notre confiance et notre charge cognitive.]
Skitka, L. J., Mosier, K. L., & Burdick, M. (1999). Does Automation Bias Decision-Making? International Journal of Human-Computer Studies, 51(5), 991–1006. [La démonstration que la présence d'une aide automatisée biaise nos décisions : nous suivons ses recommandations même quand des indices contradictoires sont visibles.]
Vasconcelos, H., Jörke, M., Grunde-McLaughlin, M., Gerstenberg, T., Bernstein, M. S., & Krishna, R. (2023). Explanations Can Reduce Overreliance on AI Systems During Decision-Making. Proc. ACM Hum.-Comput. Interact., 7(CSCW1), Article 129. [La preuve que les explications fournies par l'IA peuvent réduire notre sur-confiance — à condition qu'elles diminuent suffisamment l'effort cognitif de vérification.]
Henderson, E. L., Simons, D. J., & Barr, D. J. (2021). The Trajectory of Truth: A Longitudinal Study of the Illusory Truth Effect. Journal of Cognition, 4(1), 29. [L'étude longitudinale montrant que répéter une information suffit à la rendre plus crédible — un mécanisme clé face aux sorties répétitives de l'IA.]
Pearson, J., Dror, I., Jayes, E., et al. (2026). Examining Human Reliance on Artificial Intelligence in Decision Making. Scientific Reports, 16, 5345. [Les attitudes positives envers l'IA augmentent notre dépendance à ses réponses, même quand elles sont incorrectes — un effet mesuré sur la discrimination réel/synthétique.]