AI…E

« Artificial Intelligence« … Rarement un concept sera demeuré aussi flou et mal défini sur une période de temps aussi étendue (de fait, depuis la création du terme jusqu’à nos jours). Les mauvaises langues diront que c’est une caractéristique commune à la majorité des concepts informatiques; pour ma part, je pense plutôt que le problème provient d’une définition inadéquate et insuffisante du terme « intelligence », avant tout. La notion d’intelligence artificielle a existé bien avant l’avènement des ordinateurs, et les « lois » de la robotique ont été formulées en 1942 (par l’écrivain de science-fiction et biologiste Isaac Asimov), alors que l’intelligence artificielle n’était pas encore un sujet d’études universitaires.

Il est intéressant de constater qu’à l’époque où certains prédisent une future prééminence des machines intelligentes sur l’espèce humaine, voire une évolution symbiotique, les seules considérations éthiques concernant une forme de pseudo-vie artificielle datent de la première moitié du vingtième siècle. Depuis, on a beaucoup progressé du point de vue technologique, jusqu’à envisager une immortalité physique ou par procuration (voir par exemple le site iatranshumanisme.com qui rassemble beaucoup d’informations sur le sujet et sur des sujets liés à l’intelligence artificielle). En revanche, l’idée d’une intelligence artificielle susceptible de dépasser l’intelligence humaine n’a que très peu préoccupé la philosophie et encore moins la politique, traditionnellement peu impliquée par les concepts novateurs.

Les prédictions en matière d’intelligence artificielle de plusieurs scientifiques et leaders du domaine des technologies de l’information ne sont pas très rassurantes, même si elles sont enthousiasmantes par certains aspects. Elon Musk entrevoit la fin de l’humanité telle que nous la connaissons, et ceci à partir de 2025 (Rappelez-moi de vider ma cave d’ici là !), Or, même si le directeur de Tesla a parfois tendance à « fumer la moquette », on ne peut lui dénier ses qualités de visionnaire (encore que parfois, il soit en retard d’une guerre, comme avec le bitcoin dont il a récemment découvert les caractéristiques peu écologiques connues pourtant depuis l’invention de la blockchain). Bill Gates a un avis moins tranché, mais tout de même peu rassurant, puisqu’il compare cette technologie à l’énergie nucléaire. Il n’y a guère que Mark Zuckerberg qui nage dans l’euphorie la plus rassurante concernant un futur rempli de télépathie, intelligence artificielle et humanité augmentée.

La loi de Moore prédit que la complexité d’un ordinateur approchera celle du cerveau humain aux alentours de 2030. Mais les techniques d’apprentissage profond (qui font partie de l’intelligence artificielle) font que les performances des algorithmes croissent plus rapidement que la complexité des ordinateurs. Par ailleurs, la taille et la complexité à elles seules n’impliquent pas forcément une intelligence supérieure (il y a des exemples de cerveaux plus volumineux et probablement plus complexes que le nôtre dans la nature, comme certains cétacés, par exemple).

En informatique, le terme d’intelligence artificielle est déjà chargé d’histoire, mais aussi parsemé d’échecs retentissants. Dans les années 1980, on avait développé des langages informatiques pour l’intelligence artificielle, comme LISP ou PROLOG, par exemple. Encore utilisés de nos jours, ces langages n’ont guère fait progresser la thématique de l’intelligence artificielle, mais ont alimenté un nombre impressionnant de publications parfois scientifiques, et donné lieu à un nombre non moins remarquable de doctorats pour la plupart inutiles, voire abscons. Là où de réels progrès ont été réalisés, c’est essentiellement dans le domaine militaire et paramilitaire, et les jeux électroniques. Cherchez où est l’argent, et vous découvrirez rapidement des pistes menant à la solution !

Il y a plus de trente ans que l’on cherche à reconnaître automatiquement des tumeurs dans une image radiologique; j’ai moi-même participé à certains projets de recherche où on tentait péniblement d’optimiser tel ou tel algorithme pour qu’il reconnaisse pour suspect un petit point noir noyé dans une image elle-même composée de points gris plus ou moins foncés. Ce n’est que depuis relativement peu que l’on dispose d’algorithmes relativement fiables, encore qu’ils ne soient pas encore diffusés de manière systématique dans les centres de radiologie. Coïncidence ? C’est aussi relativement récemment que l’on a mis au point des algorithmes permettant de reconnaître des objets « suspects » sur des images de satellites de surveillance : un problème remarquablement similaire dans son énoncé algorithmique. Seules les données à analyser diffèrent.

C’est là le grand pas en avant réalisé par le domaine de l’AI ces deux dernières décennies, et il a été rendu possible par la disponibilité d’ordinateurs surpuissants en très grand nombre, interconnectés par des liens performants, et disposant de bases de données monstrueuses. Le « deep learning », (apprentissage profond) c’est cette combinaison et rien d’autre. L’intelligence artificielle est aussi performante que le volume et la qualité des données dont on la nourrit. Exécuter des algorithmes sophistiqués nécessite des ordinateurs puissants, mais pas tellement, et cela, on sait le faire : c’est les masses considérables de données qu’il faut traiter qui rendent la performance remarquable. Pour disposer de masses de données significatives, les entreprises et les gouvernements sont parfois prêts à des sacrifices énormes; ainsi l’état d’Israël a-t-il été jusqu’à fournir les données de patients de sa population à une grande multinationale pour obtenir des vaccins contre un certain virus qui nous empoisonne l’existence depuis trop longtemps. En conséquence de quoi, Israël a été fourni en vaccins de manière prioritaire et sa population est désormais proche de l’immunité au COVID-19. Les données de santé des habitants d’Israël vont alimenter la base de connaissances de cette entreprise de pharma en prévision des prochains développements et permettront d’orienter la stratégie des futurs produits.

Les quantités énormes de données à traiter ne sont pas maîtrisables par des humains; les ordinateurs sont donc déjà en mesure de résoudre des problèmes qui dépassent les capacités humaines en termes de quantité de données à traiter. Les programmes d’analyse d’images chers à Xi Jin Ping qui permettent de localiser, voire de tracer un « terroriste » parmi plus d’un milliard d’habitants chinois font partie de ce type de problématique. Mais ce genre de programmes nécessite encore un verdict humain pour « valider » les conclusions auxquelles est parvenu l’algorithme générique sur la base des données fournies. C’est un humain qui va décider en fin de compte de la justesse des analyses effectuées, et enrichir ainsi la base de connaissances de l’algorithme. Il en va de même pour les programmes d’aide au diagnostic qui se généralisent chez les médecins : l’algorithme donne des pistes extrêmement précises au praticien qui les valide ou les invalide selon le cas. Corollairement, à chaque validation / invalidation, l’algorithme devient plus performant grâce aux données additionnelles emmagasinées. A terme, il deviendra de plus en plus difficile d’alimenter l’algorithme d’éléments nouveaux; il ne pourra plus que s’alimenter de ses propres échecs, si tant est qu’il parvienne à les connaître. Dans ce modèle, on peut penser que, passé un certain seuil, l’intelligence artificielle ne peut plus croître, qu’elle « plafonne » après avoir assimilé une quantité donnée de connaissances.

Mais il y a des perspectives plus enthousiasmantes (et partant beaucoup plus inquiétantes aussi).

Le développement par DeepMind (rachetée par Google) d’Alpha Go, puis Alpha Go Zero est bien connu : c’est une adaptation littérale de l’apprentissage profond, l’ordinateur s’alimentant lui-même en données jusqu’à devenir imbattable. C’est la démonstration du fait que sur un problème particulier (assez élémentaire il est vrai), l’ordinateur peut créer lui-même les données nécessaires à son « intelligence ». Théoriquement, on pourrait donc, sur certains problèmes spécifiques, obtenir des solutions auxquelles l’humain aurait été incapable de penser, et en conséquence, la limitation due à l’absence de nouvelles données n’existerait plus. On peut penser qu’il s’agit d’un premier pas vers une « intelligence » qui pourrait devenir ainsi autonome.

Inquiétant ? Oui. Considérablement.

En même temps, les meilleurs robots actuels sont, globalement, beaucoup plus stupides qu’un chat domestique; en tous cas, plus stupides que le chat qui se frotte à mes jambes depuis un moment en ronronnant pour me faire comprendre que son assiette de croquettes est vide, et que le fait de tapoter sur un clavier ne résout pas son problème immédiat.

C’est rassurant. Du moins, dans l’immédiat.

Partager :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.