Professeurs : détectent-ils ChatGPT ? Comment reconnaître l’IA en classe

0
Professeur en classe examinant des essais d'élèves

18 % : c’est la proportion d’enseignants du lycée Louis-le-Grand qui déclarent avoir surpris au moins un élève utilisant une intelligence artificielle pour ses devoirs au cours de l’année 2023. Ce chiffre, issu d’une enquête menée par le SNES-FSU, donne la mesure d’un phénomène qui ne cesse de prendre de l’ampleur. Désormais, des logiciels comme Turnitin ou GPTZero ont fait leur entrée dans la panoplie d’outils d’évaluation de certains établissements.

Mais aucun algorithme ne tient toutes ses promesses. Des devoirs authentiques se retrouvent parfois injustement signalés, tandis que des textes générés par l’IA passent entre les gouttes. Cette incertitude sème le trouble et relance le débat sur la façon d’évaluer et de garantir l’équité dans l’école d’aujourd’hui.

L’essor de l’intelligence artificielle en classe : état des lieux et chiffres clés

Cette année, l’intelligence artificielle s’est glissée dans les classes à vitesse grand V. De plus en plus d’étudiants recourent à des outils générateurs de contenus pour concevoir des devoirs, faire des recherches ou mieux comprendre un sujet. Les professeurs le constatent chaque semaine : les usages évoluent, rien ne reste figé. Selon l’enquête 2023 du SNES-FSU, presque un enseignant sur cinq a déjà surpris un élève faire appel à l’IA.

L’arrivée massive de plateformes telles que ChatGPT ou d’autres outils d’intelligence artificielle chamboule la façon d’accéder à l’information. Les élèves sollicitent d’immenses bases de données, rédigent des textes structurés, et trouvent des réponses en quelques secondes. Cette facilité questionne la capacité du système éducatif à accompagner ces transformations et à maintenir la valeur du travail authentique.

Pour donner une idée concrète de la rapidité de ce bouleversement :

  • En 2023, 18 % des enseignants ont déjà repéré au moins un usage de l’IA par leurs élèves dans leur classe.
  • Une étude sur cinq académies révèle que 34 % des exposés et travaux d’étudiants mentionnent l’utilisation de l’IA comme source de documentation.
  • Un établissement scolaire sur deux expérimente ou a adopté un outil de détection.

Face à ces changements, les enseignants partagent astuces et témoignages pour repérer les textes suspects. Les élèves, eux, n’ont pas tardé à élaborer des méthodes pour brouiller les pistes. Impossible pour l’école d’ignorer ce séisme : chaque acteur doit s’ajuster à une nouvelle normalité, où la rapidité d’adaptation devient presque une compétence en soi.

Peut-on vraiment repérer un texte généré par ChatGPT ? Les signes qui alertent les enseignants

Tomber sur un texte produit par ChatGPT en classe, c’est devenir enquêteur. Les professeurs, habitués à la diversité stylistique des copies, sont désormais attentifs à cette perfection nouvelle : syntaxe sans faille, enchaînement impeccable, prose toute lisse. Rien ne dépasse. Pourtant, cette apparente rigueur suscite le doute. Ce qui manque ? Une maladresse, une touche de personnalité, peut-être la petite erreur qui signe le travail d’un élève.

Beaucoup observent des arguments génériques, des formulations qui semblent sorties d’un manuel universel : énoncés vagues, absence de référence concrète au cours, zéro anecdote ou exemple vraiment personnel. À la relecture, une analyse de texte d’une complétude inhabituelle se dégage, alors qu’un élève aurait marqué des hésitations, laissé passer une imprécision. Tout s’enchaîne, mais sans la moindre aspérité.

Plusieurs marqueurs reviennent avec insistance dans l’expérience des professeurs :

  • Pas de fautes communes : orthographe nette, syntaxe irréprochable, formules précises, là où certains élèves auraient trébuché.
  • Organisation trop millimétrée : plan parfait et contenu parfois trop riche pour le niveau attendu.
  • Absence de subjectivité : discours neutre, aucune nuance, pas le moindre doute exprimé.

La détection ne s’arrête pas au flair. Certains enseignants confrontent les copies du jour à celles des semaines précédentes pour traquer les ruptures de style ou de registre, tandis que d’autres se servent avant tout de leur expérience de la classe. L’écart entre le texte remis et la maîtrise réelle de l’élève alerte parfois dès la première lecture.

Outils et méthodes de détection : ce que les professeurs utilisent au quotidien

Pour affronter la vague des productions assistées par IA, les enseignants adoptent de nouveaux outils de détection. Des logiciels tels que Compilatio ou Turnitin, autrefois réservés à la détection de plagiat, s’installent dans la routine de l’évaluation. Ils analysent les productions, croisent les contenus avec d’immenses bases de données et décryptent la structure des textes. Certains outils, comme Compilatio Magister, proposent désormais un module spécialement dédié à l’identification des créations algorithmiques, repérant les caractéristiques propres à un contenu généré.

Les enseignants les plus à l’aise avec l’informatique testent aussi des plateformes open source de détecteurs IA, à l’image de GPTZero ou ZeroGPT. Ces outils livrent une estimation du taux de contenu artificiel, déploient des analyses de syntaxe ou évaluent le degré d’originalité du texte. Imperfectibles, ils servent néanmoins de béquille technologique face à des IA toujours plus performantes.

Mais la technologie seule ne suffit jamais. Les professeurs confrontent les devoirs à ceux déjà rendus auparavant, ou échangent à l’oral avec les élèves sur la démarche suivie. Cette approche humaine, nourrie par la connaissance fine des élèves et du groupe, complète les ressources numériques et limite les erreurs d’appréciation. Souvent, c’est la combinaison de ces pratiques qui produit la meilleure lecture de la situation réelle en classe.

Groupe d

Enjeux, limites et conséquences de la détection de l’IA dans l’éducation

Détecter ce qui vient de l’IA n’est pas qu’un défi technologique. Cette révolution place les enseignants face à des choix pédagogiques, à des dilemmes de confiance et à des flous réglementaires. Préserver une évaluation juste sans instaurer une atmosphère de méfiance permanente : l’équilibre est précaire. Multiplier les faux positifs, quand des travaux honnêtes sont classés comme suspects, entame la confiance dans la relation élèves-professeurs. À l’inverse, ignorer les faux négatifs fausse la valeur même de l’évaluation.

Parmi les défis concrets que soulève cette mutation :

  • L’administration de la preuve reste floue : aucune méthode ne garantit l’origine exacte d’un texte. Avec l’évolution rapide des modèles d’IA, certaines stratégies deviennent rapidement dépassées.
  • Le cadre réglementaire demeure incertain : si certains établissements rédigent des chartes, tout manque d’une vision nationale cohérente et laisse la porte ouverte à des pratiques disparates.

L’éthique entre en jeu : respect de la vie privée, risque de pointer injustement certains étudiants, fragilisation de la confiance dans l’apprentissage réel. Certains craignent que la chasse à l’IA ne freine toute innovation pédagogique. Pourtant, former les élèves à réfléchir, à interroger ces outils et à prendre du recul, c’est peut-être la meilleure manière de repenser l’école.

L’IA ne frappe pas à la porte : elle est déjà là. La véritable question, désormais, c’est de savoir quelle place nous choisissons de lui accorder, et comment faire de ce virage un levier, et non un point de crispation. Sous les stylos, l’humain ne doit pas s’effacer derrière des lignes de code impersonnelles.