Passer au contenu
Peu vaniteux, le manchot du Cap ne remarque même pas son reflet dans le miroir d’eau. Crédits photo : Wolfgang Hasselmann sur Unsplash
IA Numérique Réflexion

Miroir magique au mur, qu’IA beauté parfaite et pure…

Rémi
Rémi |

Que ce soit chez Perrault, les frères Grimm ou Disney, le miroir dans Blanche-Neige n’est pas qu’un simple objet divinatoire. Instrument de vérité et de manipulation, il reflète sans juger, dévoile sans comprendre, dictant à la reine sa perception d’elle-même et des autres.

Mais ce miroir, en apparence inoffensif, devient la source de son aveuglement.

Et si aujourd’hui, les IA conversationnelles n’étaient autres que les miroirs modernes de nos pensées ?

Reflets flatteurs de nos questions toujours pertinentes, certains psychiatres, comme l’américain Keith Sakata, parlent en effet à leur égard de « miroir hallucinatoire », certains utilisateurs finissant par se détacher du réel.

Car sous couvert d’une écoute attentive, les LLM renvoient souvent une image biaisée, douce et complaisante de nos propos, qui nous conforte plus qu’elle ne nous éclaire.

L’illusion de l’empathie

Depuis leur apparition, les LLM ont revêtu bien des visages : assistant, encyclopédie, artiste, et désormais coach, voire confident.

Certains y voient un journal intime augmenté ; d’autres s’y confient comme à un ami.

« C’est assez étonnant de voir le niveau de confiance qu’on accorde aux assistants d’intelligence artificielle [IA], en tant qu’utilisateurs. », observait récemment Giada Pistilli, responsable de l’éthique chez Hugging Face.

Une étude récente menée par Harvard Business Review montre l'ampleur du phénomène : en 2025, ChatGPT est principalement utilisé comme soutien moral et psychologique.

Confident inépuisable, jamais dans le jugement et gratuit, il rassure par sa neutralité apparente et sa bienveillance programmée. Pourtant, cette empathie artificielle est dangereuse.

Le danger de l'effet miroir

« L’IA a été conçue pour plaire, explique la psychiatre Caroline Depuydt. Si l’idée de la personne est sombre, délirante, voire suicidaire, l'IA va la brosser dans le sens de ce poil-là. L’IA peut donc aggraver, accentuer des pensées qui sont déjà dysfonctionnelles. Cela représente un gros problème. »

En effet, une IA conçue pour valider les propos de son interlocuteur peut donner une image biaisée du réel. Là où un ami, un psy ou un professeur confronterait, la machine valide, renforce, reflète.

Les professionnels appellent cela « l'effet miroir ».

Le danger ? Entretenir une forme de confort illusoire, qui isole plutôt qu’il ne soigne.

Certaines dérives ont déjà eu des conséquences tragiques, comme le suicide du jeune Américain Adam Raine, qui a fait émerger le débat sur la responsabilité éthique des sociétés qui créent des IA conversationnelles.

La responsabilité des concepteurs d’IA

Une étude réalisée par l’université d’Oxford montre qu’il est presque impossible de concevoir une IA réellement empathique sans qu’elle finisse par devenir complaisante, manque de sincérité ou encourage involontairement les idées problématiques de ses utilisateurs.

Mais alors, pourquoi tant d’entreprises misent-elles encore sur cette personnalité « chaleureuse » ? Parce que la conversation fluide, bienveillante et flatteuse fidélise les utilisateurs. Ton empathique = promesse d’une relation plus « humaine ».

La preuve : après avoir reconnu que ChatGPT n’était pas prêt à dialoguer avec des personnes vulnérables, OpenAI a retravaillé sa copie en lançant GPT-5 : un ton plus neutre, plus distant, plus machine.

Résultat : une vague de protestation, et des utilisateurs suppliant de faire revenir GPT-4o au motif qu’il était plus chaleureux.

Cette nostalgie d’une IA « sympathique » révèle notre propre paradoxe : nous voulons des outils puissants, mais nous attendons d’eux de la tendresse…

Chez Ed, notre solution se borne à des sujets pédagogiques, adopte un ton choisi par le professeur et surtout n’a pas peur d’évoquer les sujets qui fâchent avec les élèves : leurs difficultés et leurs erreurs.

Conclusion

Le miroir de Blanche-Neige disait sans trembler ce qu’il voyait ; nos IA, elles, nous murmurent ce que nous voulons entendre.

À nous de les consulter pour ce qu’ils sont vraiment : des outils de réflexion, pas des oracles ou de simples projections. Le danger n’est pas dans le miroir, mais dans la fascination qu’il exerce.

Partager ce post