Ce tiret qui nous trahit
Il a 600 ans, mesure la largeur d’un M majuscule et s’est récemment attiré les foudres collectives. Vous l’avez ? C’est le tiret cadratin (« — »). Vous savez, ce trait fin et élégant réservé aux dialogues ou à certaines incises. Aujourd’hui, il est LE caractère typographique recherché par la police du style. Trop long. Trop propre. Trop anglophone. Trop ChatGPT.
Si s’en servir n’a rien d’illégal, il est désormais perçu comme la marque noire d’un contenu déshumanisé, la signature d’un abus.
Un paradoxe, quand on sait que le monde professionnel encourage l’utilisation de l’IA et valorise ceux qui la maîtrisent.
Mais alors, que dire aux élèves ? Que recourir à l’IA pour rédiger c’est de la triche alors même que cela devient une compétence attendue ? Et dans ce cas, comment l’intégrer sans nuire à l’apprentissage ?
Le faux procès du tiret cadratin
Le tiret cadratin n’a rien d’un gadget numérique. Depuis des siècles, il structure les dialogues, rythme les phrases, introduit des ruptures, suspend des idées. Sa fonction est simple : organiser la pensée à l’écrit.
Si les modèles de langage l’utilisent autant, ce n’est pas par coquetterie. C’est parce qu’ils ont appris à écrire en ingérant des corpus majoritairement anglo-saxons, où ce signe est omniprésent. Autrement dit, l’IA ne l’a pas inventé, elle en a hérité.
Problème : ce que la machine a retenu des meilleurs textes humains est devenu suspect chez les humains eux-mêmes.
A tel point qu’OpenAI a fini par permettre le bannissement de ce tiret (via une instruction permanente dans les réglages personnalisés) et présenté des excuses pour avoir « gâché la réputation » du signe.
Alors, faut-il écrire différemment pour prouver que le contenu est made in human ?
Parce que derrière la chasse au tiret cadratin se cache une ambition plus large : distinguer ce qui est écrit par un humain de ce qui est produit par une IA.
Cette ambition se heurte à une réalité simple : les humains peinent à identifier de manière fiable les textes générés par l’IA. Les outils de détection, eux, produisent encore de nombreux faux positifs, pénalisant parfois des élèves.
Dans un contexte où l’écriture devient de plus en plus hybride, un indice stylistique n’est pas probant. Traquer les tirets, les structures trop propres ou certains mots récurrents peut donner un sentiment de contrôle. Mais ce n’est qu’une illusion.
À force de vouloir savoir qui écrit, on oublie de se demander ce qui est compris.
Une réalité difficile à tenir
Dans le monde professionnel, l’IA est utilisée pour rédiger, synthétiser, reformuler, accélérer. Elle est intégrée dans les outils du quotidien.
Utiliser un modèle de langage pour structurer un email, clarifier une idée ou gagner du temps n’est pas perçu comme de la triche, mais comme une forme d’efficacité. L’outil ne remplace pas l’humain, il amplifie ses capacités.
À l’école, le regard est différent. Un élève qui utilise l’IA est soupçonné de triche. Et cette méfiance n’est pas infondée.
Plusieurs travaux montrent que l’usage non encadré de l’IA peut dégrader l’apprentissage. Dans certaines études, des élèves accompagnés par un tuteur IA ont développé une dépendance à l’outil, avec pour conséquence des difficultés à structurer leur propre raisonnement. C’est ce que les chercheurs appellent la « paresse métacognitive » : déléguer à la machine l’effort d’organisation de la pensée.
À cela s’ajoute un autre risque : l’illusion de compréhension. Lire une réponse claire donne le sentiment d’avoir compris, sans être capable de réutiliser les connaissances.
Enfin, force est de constater que lorsque tous les élèves s’appuient sur les mêmes outils, les productions tendent à s’uniformiser, réduisant la diversité des idées.
La prudence de l'École s’explique. Mais le décalage avec le monde professionnel devient difficile à tenir.
Comment intégrer l’IA aux programmes scolaires ?
L’enjeu est de comprendre dans quelles conditions elle devient un levier d’apprentissage.
Le dernier rapport de l’OCDE sorti en 2026 sur les effets de l’IA générative en éducation : ce n’est pas la technologie qui fait l’effet, mais le cadre pédagogique dans lequel elle est utilisée.
Dans sa fonction basique de chatbot répondant à toutes les questions, l’IA peut avoir des effets néfastes sur l’apprentissage, on l’a vu.
En revanche, les systèmes de chatbots plus socratiques qui questionnent l’élève, l’amènent à expliciter son raisonnement ou le guident sans lui donner directement la réponse, favorisent un apprentissage plus profond. L’IA devient alors un partenaire de réflexion, et non un simple générateur de réponses.
L’IA générative est également efficace pour la pratique répétée et le feedback immédiat, deux leviers bien connus des sciences de l’apprentissage.
Bien utilisée, l’IA ne court-circuite donc pas la pensée. Elle peut, au contraire, la stimuler.
Plutôt que de chercher à détecter l’usage de l’IA, de plus en plus de travaux recommandent de concevoir des situations où la compréhension ne peut pas être déléguée.
Cela passe par :
- des évaluations orales
- des productions réalisées en plusieurs étapes
- une attention portée au raisonnement et aux choix effectués
- des consignes explicites sur les usages autorisés de l’IA
L’objectif n’est plus seulement d’évaluer un résultat, mais de rendre visible le processus d’apprentissage.
Conclusion
Le tiret cadratin est le symptôme d’un monde en mutation.
Derrière lui se joue une transformation bien plus profonde : celle de notre rapport à l’écriture, à la preuve et à l’apprentissage.
Pendant que l’on traque les signes potentiellement visibles de l’IA, les usages, eux, se diffusent et infusent partout.
Reste à savoir comment les apprivoiser.