L'intelligence artificielle n'est pas une pandémie

On craint que ChatGPT ne sape le système éducatif et on réclame de plus en plus de règles pour en régir l'utilisation. Gerd Kortemeyer de l'ETH Zurich estime que toute réglementation qui ne serait pas fondée sur le bon sens pourrait s'avérer contre-productive.
Ce qui a choqué le système éducatif, c'est que le ChatGPT réussissent des examens d'admission à l'université. (Illustration : Adobe Stock)

Lors de l'apparition du COVID-19, nous nous sommes empressé·es d'élaborer, de proclamer et de rétracter des règles et des restrictions ; nous avons produit un torrent de réglementations partiellement contradictoires sur les masques, les tests, les voyages et les vaccinations. Aujourd'hui, certaines mesures peuvent sembler un peu ridicules, inefficaces ou trop ambitieuses. Mais à l'époque, l'imperfection valait mieux que l'inaction : il était impératif d'endiguer la pandémie mortelle.

L'IA n'est pas une pandémie mortelle, mais nous risquons une fois de plus de nous précipiter pour édicter des règles et des réglementations draconiennes afin d'enrayer sa propagation. Comparés à d'autres technologies perturbatrices, des outils comme ChatGPT ont certes fait irruption dans le domaine public de manière plutôt abrupte, mais des voix s'élèvent déjà pour réclamer un gel complet du développement de nouveaux modèles d'IA. Des pays entiers tentent d'interdire ChatGPT, les éditeurs et éditrices élargissent les accords avec les autrices et auteurs, et les universités s'empressent d'introduire des réglementations pour, mais souvent contre, son utilisation. Il est très probable que, dans quelques mois, ces mesures paraîtront elles aussi un peu ridicules, inefficaces ou trop draconiennes.

Après le choc initial...

L'IA n'est pas une pandémie, mais un outil - même s'il est impressionnant. Ce qui a choqué le système éducatif, c'est qu'elle est capable de maîtriser les examens d'admission à l'université, d'obtenir des notes de passage dans les cours d'introduction aux sciences et de créer des essais et des présentations avec un flot de fiction plausible. J'utilise délibérément le terme «fiction», car même si le contenu peut sembler factuel, il s'agit en fin de compte d'une compilation statistiquement probable de fragments de texte dont les sources ne sont pas étayées. Le corpus de textes utilisé pour l'entraînement est propriétaire, l'algorithme mélange tout, et si l'on demande à ChatGPT de fournir des références, elles sont totalement fictives.

Malgré cela, ses capacités de programmation, de traduction et de résumé de texte sont stupéfiantes. Il nous faudra du temps pour comprendre ce que cela signifie pour l'IA, mais aussi pour notre système éducatif.

«Utiliser un texte non modifié provenant d'outils d'IA et prétendre «j'ai écrit ceci» serait clairement un mensonge.»      Gerd Kortemeyer

Dans les tournois d'échecs, l'IA a été bannie pour préserver le plaisir humain de ce jeu artistique. Dans le monde universitaire, cependant, on a toujours attendu de nous que nous utilisions les outils les plus puissants disponibles pour repousser les limites de la connaissance. Le débat dans l'enseignement supérieur ne peut pas porter sur l'interdiction totale d'un outil, mais doit porter sur les conséquences de cette perturbation sur ce que nous enseignons et sur la manière dont nous l'enseignons - avec probablement seulement quelques limites strictes concernant l'utilisation abusive de cet outil.

Plus qu'un «simple» plagiat

Les règles relatives au plagiat ne sont pas très utiles pour fixer des limites, car elles ont été créées avant que l'IA ne soit viable pour un usage quotidien, et elles se concentrent généralement sur le fait de faire passer la propriété intellectuelle de quelqu'un d'autre pour la sienne. À proprement parler, à moins que l'IA ne se voie accorder le statut de personne, ce principe ne s'applique pas. Au lieu de se concentrer sur «le travail de quelqu'un d'autre», nous devrions nous concentrer sur «son propre travail». Utiliser un texte non modifié provenant d'outils d'IA et prétendre «j'ai écrit ceci» serait clairement un mensonge.

D'un autre côté, les outils d'IA peuvent légitimement être utilisés pour surmonter les blocages de l'écriture et obtenir un aperçu rapide «the good, the bad, and the ugly» de ce qui se trouve dans son énorme corpus de textes sur un sujet donné. Mais ensuite, les auteurs et autrices humaines doivent en faire leur propre travail, en séparant le bon grain de l'ivraie et en vérifiant et validant les informations provenant de sources scientifiques réelles. Il faut discuter de l'endroit précis où commence«le travail personnel» dans le processus, au sens d'une prestation scientifique. Mais je pense qu'une règle interdisant l'utilisation de mots ou de formulations générés par l'IA va trop loin. Prenons le temps d'élaborer des règles sensées. Ou sommes-nous pressé·es parce que nous avons honte de donner de bonnes notes à ChatGPT ?

Mieux vaut se vacciner contre les fausses nouvelles

Quoi qu'il en soit, les discussions sur la tricherie avec l'IA sont probablement moins que constructives. Les étudiants viennent nous voir parce qu'ils veulent apprendre et parce qu'ils apprécient la pensée critique, la créativité et l'indépendance d'esprit. Il est de notre responsabilité d'enseigner les aptitudes, les concepts, les méthodes et les compétences qui leur permettront de donner le meilleur d'eux-mêmes dans un monde où l'IA sera omniprésente. Tout en continuant à poser des bases solides en mathématiques et en sciences naturelles, nous devrons revoir certains programmes. Par exemple, de simples exercices de programmation pourraient être obsolètes, mais nous devrons peut-être nous concentrer sur la calculabilité, les algorithmes et la théorie de l'information. Traduire et résumer des textes manuellement pourrait être obsolète, mais nous pourrions avoir besoin de vacciner nos étudiants contre la pandémie de fake news virales, de fake science et de deepfakes.

Plus d'informations

Gerd Kortemeyer est directeur du développement et de la technologie de l'éducation à l'ETH Zurich.