Lorsque le professeur de philosophie Darren Hick a découvert un autre cas de tricherie dans sa classe à l’université Furman l’année dernière, il a publié une mise à jour à ses abonnés sur les réseaux sociaux : “Et voilà, j’ai attrapé mon deuxième plagiaire ChatGPT.”
Des amis et des collègues ont réagi, certains avec des emojis écarquillés. D’autres ont exprimé leur surprise.
“Seulement 2 ?! J’en ai attrapé des dizaines”, a déclaré Timothy Main, professeur d’écriture au Collège Conestoga au Canada. “Nous sommes en mode crise totale.”
Pratiquement du jour au lendemain, ChatGPT et d’autres chatbots d’intelligence artificielle sont devenus la source privilégiée de tricherie à l’université.
Maintenant, les éducateurs repensent la manière dont ils enseigneront les cours cet automne, de l’écriture 101 à l’informatique. Les éducateurs disent vouloir exploiter le potentiel de la technologie pour enseigner et apprendre de nouvelles manières, mais en ce qui concerne l’évaluation des étudiants, ils voient la nécessité de “ChatGPT-proof” les questions d’examen et les devoirs.
Pour certains enseignants, cela signifie un retour aux examens sur papier, après des années de tests exclusivement numériques. Certains professeurs exigeront des étudiants qu’ils montrent l’historique des modifications et les brouillons pour prouver leur processus de réflexion. D’autres enseignants sont moins préoccupés. Certains étudiants ont toujours trouvé des moyens de tricher, disent-ils, et c’est juste la dernière option.
Une explosion de chatbots générés par l’IA, dont ChatGPT, lancé en novembre, a soulevé de nouvelles questions pour les universitaires soucieux de s’assurer que les étudiants non seulement peuvent obtenir la bonne réponse, mais comprennent également comment faire le travail. Les éducateurs disent qu’il y a au moins un accord sur certains des défis les plus pressants.
– Les détecteurs d’IA sont-ils fiables ? Pas encore, selon Stephanie Laggini Fiore, vice-provost associée à l’université Temple. Cet été, Fiore faisait partie d’une équipe à Temple qui a testé le détecteur utilisé par Turnitin, un service populaire de détection de plagiat, et l’a trouvé “incroyablement imprécis”. Il fonctionnait mieux pour confirmer le travail humain, a-t-elle dit, mais était aléatoire pour identifier le texte généré par chatbot et le moins fiable pour le travail hybride.
– Les étudiants seront-ils faussement accusés d’utiliser des plateformes d’intelligence artificielle pour tricher ? Absolument. Lors d’un cas le semestre dernier, un professeur de Texas A&M a accusé à tort toute une classe d’utiliser ChatGPT pour les devoirs finaux. La plupart de la classe a ensuite été disculpée.
– Alors, comment les éducateurs peuvent-ils être certains qu’un étudiant a utilisé un chatbot alimenté par l’IA de manière malhonnête ? C’est presque impossible à moins qu’un étudiant ne l’avoue, comme l’ont fait les deux étudiants de Hicks. Contrairement au plagiat à l’ancienne où le texte correspond à la source dont il est extrait, le texte généré par l’IA est unique à chaque fois.
Dans certains cas, la tricherie est évidente, explique Main, le professeur d’écriture, qui a eu des étudiants qui ont rendu des devoirs clairement copiés-collés. “J’ai reçu des réponses qui disaient : ‘Je suis juste un modèle de langage IA, je n’ai pas d’opinion là-dessus'”, a-t-il dit.
Dans son cours d’écriture obligatoire de première année le semestre dernier, Main a enregistré 57 problèmes d’intégrité académique, une explosion de malhonnêteté académique par rapport à environ huit cas lors des deux semestres précédents. La tricherie à l’IA représentait environ la moitié d’entre eux.