Épisode 3, avril 2025
“Je n’ai pas envie que l’élève pense qu’on ne regarde plus sa copie.”
Cette phrase, prononcée par une enseignante lors d’un groupe de travail, résume bien l’esprit de l’expérimentation : mettre l’IA au service d’une évaluation humaine, exigeante, et personnalisée des copies. Trois mois après son lancement, retour sur notre travail de co-construction avec les 40 enseignants de l’académie de Lyon.
Malgré les vacances, avril n’a pas été moins productif et les enseignants sont toujours au rendez-vous pour tester, consolider ou invalider nos approches. Deux grands chantiers ont rythmé notre travail :
Voici ce que nous avons appris — et construit — avec les enseignants.
Ceci plus rapidement qu’ils ne l’auraient fait en corrigeant uniquement à la main, temps de scan des copies compris.
Plusieurs retours très concrets ont émergé, concernant les besoins pédagogiques et l’ergonomie de l’outil.
Les enseignant veulent
💬 “Je ne veux pas que l’élève pense qu’on en a rien à faire de la copie.”
Et surtout, les commentaires générés par l’IA doivent être synthétiques et parler aux élèves aussi bien qu’aux enseignants, tout en contenant toutes les informations utiles
💬 « Il y a trop de texte pour une erreur simple. Il faudrait des retours plus impactants. »
💬 « L’IA me met 0,75 point. Pourquoi ? Je veux voir le détail du barème. »
Les enseignants ont apprécié le mode audio (correction lue par une voix IA) proposé, mais ont besoin de pouvoir
Ces retours ne traduisent pas une défiance, mais une exigence : l’IA ne doit pas remplacer l’enseignant, mais être un outil au service de son regard critique et de sa relation pédagogique avec les élèves.
Le mois d’avril a été consacré à un important travail de formalisation didactique.
Les enseignants ont testé la création et l’usage de tags pédagogiques, apposés sur les copies en fonction des réussites et des erreurs des élèves.
Ces tags ont été bien accueillis pour leur potentiel à créer un langage commun enseignant–élève, tout en faisant écho à leurs pratiques habituelles :
Ils doivent exprimer un constat sont conservés, afin de rester dans une posture neutre et descriptive, sans jugement.
Les enseignants ont validé 7 grandes catégories d’erreurs, elles mêmes décomposées en sous-catégories. Pour chacune, des exemples types ont été identifiés à partir de copies réelles, afin d’entraîner l’IA à les repérer avec justesse.
L’expérimentation a permis de valider la bibliothèque de formats de contenus de remédiation, qui sera accessible depuis la plateforme pour les enseignants. On y retrouve des formats imprimables ou interactifs, simples ou différenciés, allant du QCM à la vidéo interactive, en passant par les parcours d’exercices ou les jeux de plateau.
Cette bibliothèque sera progressivement disponible et permettra de proposer des parcours adaptés aux besoins individuels ou collectifs des élèves.
Enfin, nous avons revu la page “Analyse et Remédiation” à la lumière des retours des enseignants.
Au lieu de faire ressortir 3 axes principaux de travail, la page affiche désormais une vue sur l’ensemble des savoir-faire évalués. L’enseignant sait ainsi ce qui marche et ce qui doit être retravaillé, lors de la remédiation par exemple.
Reste un besoin exprimé par de nombreux enseignants : pouvoir visualiser les progrès des élèves d’une évaluation à l’autre. Cette dimension de suivi longitudinal est au cœur des prochaines itérations de la plateforme.
Les enseignants sont prêts à s’approprier les différents outils proposés, dès lors qu’ils leur laissent la main, leur place d’expert.
Les deux derniers mois de l’expérimentation seront consacrés à :