«Un gel du développement compromettrait la transparence»

Dans une lettre ouverte, des personnalités du monde de la science et de l'industrie appellent à un gel de la formation de nouveaux modèles d'IA plus puissants que le GPT-4. Andreas Krause et Alexander Ilic, experts en IA de l'ETH Zurich AI Center, estiment que cette mesure est difficile à mettre en œuvre et qu'elle comporte des risques.
Andreas Krause (à gauche) et Alexander Ilic (à droite). (Photo : Nicola Pitaro / ETH Zürich)

ETH News : Andreas Krause, la lettre appelle à un gel de la formation des systèmes d'intelligence artificielle (IA) plus puissants que GPT-4. Une mesure aussi radicale est-elle nécessaire ?
Andreas Krause : Je doute que cette demande puisse être appliquée, car il y a d'énormes intérêts commerciaux et stratégiques derrière son développement. De plus, il est difficile de déterminer ce qui est demandé de restreindre spécifiquement sans fausser la concurrence et mettre en péril l'innovation dans son application. Même si un tel moratoire était décrété, personne ne pourrait empêcher que les travaux de formation de ces modèles se poursuivent en secret.

Il en résulterait moins de transparence.
Andreas Krause : Exactement. Le danger serait que des développements jusqu'ici largement ouverts et transparents deviennent inaccessibles et opaques. Et il deviendrait pratiquement impossible, par exemple, de comprendre les ensembles de données sur lesquels les modèles actuels ont été formés et les biais ou défauts qui y sont associés. Cette tendance se manifeste déjà aujourd'hui.

Geler le développement n'est donc pas une bonne idée.
Alexander Ilic : Non, parce qu'il y a de gros points d'interrogation sur la fiabilité et l'interprétabilité des modèles linguistiques actuellement utilisés. Ces éléments sont d'une importance cruciale et doivent absolument faire l'objet d'une recherche encore plus poussée et d'une remise en question critique dans toutes les disciplines.

Que suggérez-vous comme alternative ?
Andreas Krause : Si la recherche fondamentale est nécessaire pour développer la prochaine génération de technologies d'IA plus sûres et plus fiables, nous devrions également faire avancer la recherche interdisciplinaire et montrer comment ces technologies peuvent être utilisées au profit de l'humanité. L'IA ne peut être utilisée de manière appropriée dans les soins de santé, par exemple, et servir d'outil utile à la société que si elle est fiable et digne de confiance.

Quel rôle joue l'ETH Zurich AI Center dans tout cela ?
Andreas Krause : À l'ETH AI Center, nous combinons la recherche fondamentale et interdisciplinaire. Notre objectif est de promouvoir des technologies et des domaines d'application utiles à la société. De plus, notre recherche est ouverte et transparente.

Alexander Ilic : Nous voulons aller à l'encontre de la tendance qui veut que la recherche sur l'IA soit de plus en plus menée à huis clos et nous concentrer sur une coopération ouverte et interdisciplinaire entre la recherche, l'industrie et les start-ups. Nous pensons que d'importantes contributions émergeront, en particulier à l'interface des disciplines (par exemple, l'IA et la médecine, l'IA et les sciences humaines). Nous avons donc créé un programme de bourses pour attirer les meilleurs talents du monde et les réunir à l'ETH Zurich AI Center. Avec une proportion de 50% de femmes et des employé·es originaires de plus de 26 pays, nous avons également été en mesure de créer dès le départ une culture qui discute de manière critique des opportunités et des risques de l'IA et qui contribue à la façonner de manière responsable.

Les auteur·es appellent également à la création d'un organisme de contrôle indépendant chargé d'élaborer des protocoles de sécurité pour la conception et le développement de l'IA pendant le moratoire. Qu'en pensez-vous ?
Alexander Ilic : L'élaboration de procédures d'essai et la certification des technologies basées sur l'IA est certainement une question importante et doit être poursuivie dans le contexte d'applications spécifiques. Mais il est également important que nous formions de nouveaux modèles linguistiques de manière transparente et que nous façonnions activement la recherche plutôt que de nous consacrer entièrement à l'audit et à l'examen des modèles existants. C'est la seule façon de garantir que les systèmes deviennent plus dignes de confiance, plus sûrs et plus fiables. Les géants de la technologie poursuivent des intérêts commerciaux et ont donc tendance à se concentrer sur les marchés et les régions culturelles et linguistiques les plus importants. C'est pourquoi nous avons rejoint le réseau européen de recherche sur l'IA ELLIS afin de contribuer à façonner le monde de l'IA selon les valeurs européennes. Mais il y a encore beaucoup de potentiel pour promouvoir encore davantage la diversité. Par exemple, nous pourrions spécifiquement créer des ensembles de données ouvertes sur différents groupes culturels et linguistiques ou, dans le cas d'un retour d'information de la part d'êtres humains, les chercheurs et chercheuses pourraient prêter attention aux antécédents culturels des personnes interrogées et, ce faisant, réduire tout biais ultérieur. Il ne sera pas possible d'obliger les fournisseurs commerciaux à le faire eux-mêmes. Mais la recherche pourrait aider les entreprises à rendre leurs systèmes plus fiables en traitant leurs propres données de manière ouverte et transparente.

La lettre ouverte met également en garde contre le fait que les nouveaux modèles linguistiques pourraient diffuser de la propagande et des mensonges. Êtes-vous d'accord avec cette mise en garde ?
Andreas Krause : Les modèles d'IA générative ont connu un développement rapide ces derniers mois, permettant de générer des textes et des images de plus en plus réalistes. Ils peuvent en effet être utilisés pour des campagnes de désinformation. Bien que des recherches soient également menées sur la manière dont nous pouvons reconnaître ces textes et ces images, cette évolution présente un risque réel.

Les auteur·es évoquent également le risque que des personnes perdent leur emploi en raison de l'utilisation de l'IA, voire qu'elles soient un jour éliminées par des machines. N'est-ce pas exagéré ?
Andreas Krause : Cela m'ennuie qu'aucune distinction ne soit faite entre les risques que nous devons prendre au sérieux - comme les inquiétudes liées à la désinformation - et la science-fiction - la prise en charge de notre monde par les machines. Il est donc difficile d'engager une discussion et un dialogue éclairés sur les risques réels. L'IA va certainement changer durablement le monde professionnel. Il est toujours plus difficile d'imaginer quels nouveaux emplois et domaines professionnels émergeront que ceux qui risquent d'être automatisés.

Alexander Ilic : Des inquiétudes similaires ont été exprimées par le passé dans le contexte des nouvelles technologies (industrialisation, numérisation, etc.). Il est plus probable que les gens soient remplacés par ceux qui peuvent travailler avec l'IA que leurs emplois soient complètement remplacés par l'IA. C'est pourquoi il sera essentiel de soutenir la population et l'industrie dans cette transformation.

Plus d'informations

Andreas Krause est président de l'ETH Zurich AI Center et professeur d'informatique à l'ETH Zurich, où il dirige le groupe Learning & Adaptive Systems.

Alexander Ilic est directeur exécutif de l'AI Center de l'ETH Zurich.

AI Center de l'ETH Zurich

Lettre ouverte