Suite à l’article « Recherche Susan désespérément » paru récemment sur ce site, quelques ex collègues m’ont gentiment chambré, disant que je vieillissais mal en cédant à l’inquiétude du commun des mortels croyant que l’intelligence artificielle allait supplanter l’homme.
J’ai ainsi eu droit à toutes les vieilles blagues qui ont été faites sur l’informatique; je ne reproduis pas ces blagues ici, elles sont souvent assez hermétiques pour le non-initié. Il y est question de programmeur fou, de débogueur mal utilisé ou de tirer la prise d’un ordinateur s’étant attribué des prérogatives inattendues.
Ces collègues ont, techniquement, raison. L’état actuel des développements en IA est plutôt décevant (ou rassurant, diront certains). J’ai passé quelque temps à discuter avec un chatbot (non, ce n’est pas le diminutif du Chat Botté), et la conversation n’est pas toujours très constructive; encore que ces chatbots soient en général capables de passer le Test de Turing dans la plupart des cas. Pourtant, ce sont ces IA génératives qui sont le plus souvent désignées comme sujet d’inquiétude, alors que c’est probablement les machines IA les moins problématiques du moment (mais les plus spectaculaires, je le concède). Il est vrai que récemment, Bing Chat de Microsoft a fait scandale en imaginant de fausses affaires concernant des élus ou candidats à l’élection en Suisse. Par ailleurs, plusieurs cas d’incitation à la haine et parfois même au suicide ou au meurtre, ont été rapportés, entre autres dans le cadre d’une enquête de la RTS.
En réalité, ces exemples un peu inquiétants ne sont pas étonnants lorsque l’on connaît le modèle utilisé par les IA génératives : le langage est considéré d’un point de vue essentiellement statistique, sous forme de probabilités conditionnelles; le fait que Bing Chat ait associé des politiciens et des affaires ou des scandales signifie simplement que ces deux concepts sont statistiquement liés (ce qui au passage n’ajoute rien à la crédibilité des politiciens). Une IA générative ne se soucie pas de la pertinence d’un contenu, mais de sa cohérence, Il se trouve que le lecteur tend à considérer un texte cohérent -ou « bien écrit »- comme crédible, donc pertinent. Le problème est de pouvoir documenter indubitablement l’origine d’un texte émettant un jugement de valeur sur une personne donnée…
Un de mes bons amis m’a dit avec beaucoup de conviction : « Mais ces histoires d’intelligence artificielle, je n’y crois pas. Ce n’est que du code et des données, rien à voir avec quelque chose d’intelligent ». A priori, cela semble juste.
Mais n’oublions pas que la vie biologique, c’est aussi du code, le fait qu’il soit écrit en langage ADN au lieu de C ou Java n’est pas forcément une différence insurmontable à moyen terme. Et la vie biologique, c’est aussi des données, mais on les appelle « expérience », « éducation », « études supérieures » ou que sais je encore, du moins chez l’homme. On peut éditer le code ADN à l’aide d’outils spécifiques comme CRISPR; mais c’est vrai que c’est nettement moins facile qu’éditer et compiler du code source Java. On peut même fabriquer de l’ADN synthétique, mais pour l’instant, on utilise le produit plutôt pour d’autres applications que ce pourquoi l’ADN naturel était prévu. Un bug dans un code Java, c’est des dysfonctionnements d’une application, ou des « plantées » en exécution, éventuellement dépendant de données pour lesquelles le programme n’avait pas été dimensionné. Un bug dans l’ADN, c’est un être vivant non viable, un trisomique, un Trump ou un Poutine. En revanche, le code génétique écrit avec de l’ADN a nécessité plus d’un milliard d’années à être écrit. Le développement du code permettant de faire tourner GPT3 (le moteur de ChatGPT, Bing Chat , Replika et d’autres) a été initié il y a vingt ans seulement, et GPT-4 (grâce aux investissements d’Elon Musk et de Microsoft, en particulier) est publié actuellement.
Que du code et des données, l’intelligence artificielle ? Oui, indiscutablement. Comme homo erectus neanderthalensis sapiens, d’ailleurs. Bienvenue au club, intelligentia artificialis !