Être un être humain

Capable d'écrire des textes et de générer des images, l'intelligence artificielle fait son entrée dans de nombreux domaines de la vie. Perçue comme une menace, un enrichissement ou un simple gadget, l'IA soulève également une question fondamentale : qu'est-ce qui fait de nous des êtres humains ?
Cette image a été créée par le logiciel d'IA Midjourney à partir du prompt «Sculpture of a head computer chip on a marble base, hyperrealistic sculptures, pastel colors». (Photographie : Sir Mary / Midjourney)

«Ce qui fait tenir le monde ensemble» est le titre de la série d'images de ce numéro, toutes générées par l'intelligence artificielle (IA). À l'aide du logiciel Midjourney, nous avons transformé des textes en photographies, avec des résultats étonnants. Les sculptures représentées sur ces pages de Globe n'existent pas dans la réalité ; le logiciel a simplement sélectionné un arrangement de pixels qui donnerait l'impression d'un objet tridimensionnel. Comme son nom l'indique, l'IA générative a créé quelque chose qui n'existerait pas sans elle.

Différents logiciels sont aujourd'hui capables de générer du texte ou de tenir des conversations avec des personnes par l'intermédiaire de chatbots. Le plus connu d'entre eux est ChatGPT. Développé par l'entreprise américaine OpenAI, il communique à l'aide de textes en langage naturel générés par l'IA - et son ascension a été fulgurante. L'application a franchi la barre des 100 millions d'utilisatrices et utilisateurs en moins de deux mois. C'est une étape que Facebook a mis plus de quatre ans à atteindre - ou 75 ans dans le cas du téléphone analogique. Google souhaite maintenant faire de même avec son chatbot, Bard, qui vient d'être lancé.

Les critiques à l'encontre de ChatGPT n'ont pas tardé à se faire entendre. Des procès ont été intentés au motif que l'utilisation de données pour former les grands modèles linguistiques sous-jacents enfreint la législation sur les droits d'auteur. Les critiques soulignent également la difficulté de savoir si les résultats de ChatGPT sont corrects lorsqu'aucune source n'est citée et qu'il n'y a aucun moyen de savoir comment le chatbot est parvenu à ses conclusions.

Question de responsabilité

C'est un sujet qui tient à cœur à Gudela Grote, professeure à l'ETH Zurich. En tant que psychologue du travail, elle s'intéresse à la question de savoir quand une nouvelle technologie peut être intégrée de manière fiable dans un processus de travail. «L'assurance qualité exige qu'un système technique soit certifié. Mais c'est pratiquement impossible si l'on n'a aucune idée de la manière dont il produit ses résultats», explique-t-elle. Lorsque les être humains et les machines travaillent ensemble, la question de la responsabilité se pose avec acuité. «Les employés et employées sont évidemment préoccupées par l'étendue exacte de leur responsabilité», ajoute-t-elle. Cela vaut non seulement pour la technologie émergente de l'IA générative, mais aussi pour toute forme d'automatisation.

Le professeur d'informatique Thomas Hofmann est certainement impressionné par la rapidité avec laquelle l'IA générative se développe. «Même si la valeur ajoutée d'autres formes d'automatisation est probablement encore plus grande», déclare-t-il. Thomas Hofmann, dont le domaine de recherche comprend les modèles de langage, reconnaît que la fiabilité est une question épineuse. En fin de compte, toutes les applications basées sur le texte partagent une faiblesse fondamentale : elles sont basées sur des modèles de langage qui ont été formés à partir d'une grande variété de textes, y compris des textes de fiction.

Cela a du sens lorsqu'il s'agit d'apprendre la grammaire et l'orthographe. Mais les histoires inventées sont loin d'être idéales lorsqu'il s'agit de l'exactitude des faits. «Les modèles linguistiques ne peuvent toujours pas faire la différence entre ce qui est vrai et ce qui ne l'est pas», prévient Thomas Hofmann.

Une question de choix

L'une des principales préoccupations de la psychologue du travail Gudela Grote est de savoir si les gens utilisent une nouvelle technologie volontairement en tant que particuliers ou s'ils sont obligés de le faire en tant qu'employés. En tant que clientes et clients, nous pouvons choisir d'acheter et d'utiliser les produits des géants de la technologie dans notre vie privée ou non, et les entreprises répondent à ces choix en améliorant leur offre. «Mais en tant qu'employée, je suis prise au piège d'un processus que je ne contrôle pas totalement», explique Gudela Grote. «Je suis confronté aux technologies que mon employeur a décidé d'utiliser, et ces décisions sont rarement prises en concertation avec le personnel.»

La capacité des personnes à travailler avec succès avec ces nouvelles technologies dépend d'un certain nombre de facteurs. «D'après mon expérience, l'élément clé est le sentiment de compétence et d'autonomie que l'on éprouve», explique Gudela Grote. Par exemple, les personnes moins bien formées sont plus susceptibles de craindre que leur emploi soit menacé. La manière dont l'entreprise communique sur sa future voie technologique est tout aussi importante. «Les employées et employés doivent avoir une idée claire de la manière dont ils et elles peuvent s'adapter et de la façon dont leur employeur ou employeuse va les soutenir dans cette voie», explique Gudela Grote.

Idéalement, ce processus devrait également aborder la question des tâches que nous considérons comme épanouissantes. Thomas Hofmann cite l'exemple des modèles de langage optimisés pour la programmation : «Un morceau de code qui me prendrait dix heures à écrire parfaitement peut être généré par les modèles en une fraction de seconde», explique-t-il. Cela libère un temps précieux pour d'autres activités. «Mais si quelqu'un avait l'habitude de passer une journée entière à programmer, il ne sera pas très heureux de cette évolution», ajoute-t-il.

De la programmation à ChatGPT, les modèles de langage font leur entrée dans de nombreux domaines de la société. Selon Gudela Grote, le langage humain est quelque chose de tout à fait particulier. «Le langage parlé est ce qui nous rend uniques», dit-elle. «Le langage est un processus créatif qui exprime les pensées à travers les mots.» C'est cette capacité humaine que les modèles de langage tentent actuellement d'émuler.

Selon Thomas Hofmann, le fait qu'un texte ait été écrit par une IA ou par un être humain fait une grande différence : «Chaque fois que nous utilisons le langage, nous exprimons également nos sentiments et nos expériences. L'IA n'a pas recours à cette expérience, même si son texte est bien écrit». Au cours de ses études, il s'est également intéressé à la philosophie et se demande aujourd'hui si l'intelligence et l'être doivent nécessairement être liés à un substrat biologique. En fin de compte, dit-il, il s'agit de savoir où se situe la limite entre l'intelligence artificielle et l'être humain.

Plus d'informations

Gudela Grote est professeur de psychologie du travail et de l'organisation au département Management, technologie et économie de l'ETH Zurich.

Thomas Hofmann est professeur d'analyse des données au département d'informatique de l'ETH Zurich.

Ce texte a été publié dans l'édition du 23/03 du magazine Globe de l'ETH Zurich.