Une IA générale encore peu probable
Les performances des IA ont nettement progressé ces dernières années. C’est un fait. Cependant, leurs domaines d’application restent bornés (jeu d’échec, diagnostic dans une thématique précise, déplacement d’un robot dans une zone comprenant des obstacles, reconnaissance de la voix et des visages, lecture sur les lèvres…).
Mais peut-on imaginer une intelligence artificielle plus générale qui serait l’égale de l’homme, c’est-à-dire capable d’être opérationnelle dans de multiples domaines et de construire un raisonnement ou même de trouver des réponses aussi facilement que l’homme ?
Plus généralement, nous pouvons dire que malgré la présence du mot « intelligence » dans « intelligence artificielle », sous-entendant une similitude entre l’intelligence humaine et l’intelligence artificielle, cette dernière se sert en réalité de mécanismes totalement différents des nôtres (Pitrat, 1995). « Tout comme les avions volent sans pour autant battre des ailes, les ordinateurs d’échecs gagnent sans pour autant imiter les processus du raisonnement humain » (Crevier, 1997). La victoire de la machine ne prouve donc pas que nous ayons déjà créé une intelligence artificielle, i.e., une intelligence identique à la nôtre.
Un robot comme Pepper1 donne l’illusion d’un comportement intelligent mais son comportement ne repose que sur une programmation particulièrement efficace. De même, nous trouvons très vite les limites d’une application comme SIRI² sur nos « i-devices ».
Une IA d’aujourd’hui ne sait pas s’extraire de son contexte. Elle n’est en général pas plus « intelligente » qu’un rat. Par exemple, un enfant de 2 ans maitrise déjà la physique intuitive, par exemple, la gravité ou les forces élémentaires qui lui permettent de se mouvoir dans le monde physique. Un enfant n’a pas besoin d’apprendre ce qu’est un chat avec l’étude de dizaines ou centaines de milliers de photos de chat pour en reconnaitre un. Ses capacités d’abstraction sont donc sans commune mesure avec celles de la machine. Pour autant, l’IA a un avantage sur l’homme : elle sait gérer une quantité considérable de données. Elle est donc en mesure d’exploiter le Big Data3 et de déduire des informations qu’un être humain ne serait peut-être pas en mesure d’imaginer.
Avec une IA supervisée, il faut tout expliciter à une machine. Une simple phrase comme « Pierre prend son sac et sort de la pièce » est très complexe pour une IA car elle suppose un sens commun : nous comprenons que Pierre est le prénom du sujet et non un objet ; nous nous faisons la représentation intellectuelle d’une action du sujet sur le sac, lequel subit la gravité, nous imaginons que le sac est d’une taille suffisamment petite pour être transporté, etc. Pour programmer une IA, il faut lui décrire tous ces concepts, ce qui rend le travail difficile et complexe. Nous ne savons pas donner un « sens commun » à une IA.
La programmation d’un algorithme, aussi complexe soit-il, consiste à générer une série d’instructions pour ensuite l’exécuter mécaniquement. C’est non ambigu. En revanche, si on souhaite travailler sur la programmation du vivant, c’est-à-dire des situations de la vie quotidienne, c’est éminemment plus complexe car toujours contextuel. L’être humain vit constamment dans l’ambiguïté, il décide en fonction de nombreux paramètres qui échappent parfois même à sa conscience. Les IA actuelles ne savent pas gérer cela.
En outre, aucune IA n’a jamais démontré de qualités artistiques, lesquelles relèvent du domaine du sensible. Aucune machine dotée d’une intelligence artificielle « générale » n’a encore été construite, contrairement aux prévisions optimistes de la première génération de chercheurs. « Nous ne pouvons qu’entrevoir le court terme » a concédé Alan Turing, dans un article célèbre de 1950 qui préfigure la recherche moderne sur les machines pensantes. « Mais, » ajoute-t-il, « nous ne pouvons pas envisager l’ampleur du travail qui reste à accomplir ».
A ce jour, nous pouvons donc constater le perfectionnement des IA dans des domaines très précis, comme la reconnaissance de formes, mais la création d’un être humain pensant, ayant les mêmes capacités d’abstraction, n’est pas encore d’actualité. Sur le seul plan de l’activité neuronale, et ce, malgré la puissance de calcul des ordinateurs modernes, nous sommes encore assez loin de pouvoir reproduire le fonctionnement synaptique d’un cerveau humain. On apprenait en octobre 2019 que des chercheurs avaient réussi à fabriquer un réseau neuronal artificiel représentant 1 mm² de cortex cérébral et capable de traiter l’information à la même vitesse que la biologie, grâce à une nouvelle architecture4.
Cela n’empêche pas la recherche de poursuivre ses efforts et d’entretenir son vieux souhait de « jouer à Dieu » (Leithauser, 1987) en projetant de produire dans l’avenir une créature artificielle à l’image de l’homme (Breton, 1995).
Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d’une réelle conscience de soi, de « vrais sentiments » (quoi que l’on puisse mettre derrière ces mots), et une compréhension de ses propres raisonnements. Les machines actuelles ne sont pas capables de montrer des signes de conscience sur l’analyse d’une situation. Il faut pour cela, un « recul » sur la situation et l’exécution systématiquement d’une suite d’instructions. Nous parlons de boucle de rétroaction (modèle de la cybernétique). A l’image de ce qui s’est fait pour développer les performances de Alpha Go, nous pourrions imaginer qu’une IA plus générale puisse se confronter un jour à elle-même, en se testant et s’optimisant régulièrement.
Une machine équipée d’une mémoire informatique, d’un processeur de traitement des données et d’un bon algorithme (ensemble d’instructions qui décrit l’intelligence du traitement), peut « décider » d’une action dans un espace restreint des possibles. Pour autant, elle n’aura pas nécessairement développé de conscience. C’est précisément sur ce dernier point qu’achoppent les recherches en IA actuelles. Nous ne sommes pas encore parvenus à créer une intelligence forte.
Il semble évident qu’une IA bornée à un domaine tel que la traduction automatique n’est qu’un outil logiciel sachant traiter des données et des calculs dans son domaine prédéfini. Ce travail de calcul est réalisé par l’ordinateur souvent plus rapidement que par un homme mais aucune conscience n’émerge de ce processus. Votre logiciel de traduction automatique ou votre jeu d’échec n’a jamais pris le contrôle de votre ordinateur et n’a jamais fait preuve d’état d’âme.
A ce jour, nous sommes donc encore loin des IA qui sont présentées dans les films d’anticipation. Dans « Intelligence Artificielle » de Spielberg, le robot humanoïde possède des caractéristiques humaines très réalistes : une silhouette, une reconnaissance vocale et une synthèse vocale extrêmement abouties. Son comportement est tellement proche de celui d’un véritable petit garçon que ses « parents » en sont troublés5.
Si la conscience n’est pas encore de mise chez les robots, cela ne freine en rien les spéculations intellectuelles. En novembre 2017, au cours du Web Summit de Lisbonne6, le robot humanoïde « Sophia », à la plastique féminine et conçu par la société Hanson Robotics7 répondait à une série de questions lors d’une conférence de presse.
Sophia est équipée d’un système de reconnaissance faciale d’une reconnaissance vocale et d’une synthèse vocale. Elle a été conçue pour s’adapter au comportement humain, en adoptant notamment sa gestuelle. Les mécanismes de son visage sont capables de reproduire plus d’une soixantaine d’expressions faciales. Elle peut également établir un contact visuel avec son interlocuteur et se souvenir de son visage grâce aux caméras situées dans ses yeux. On ne trouvera pas de conscience chez Sophia mais elle adopte un mimétisme humain déconcertant. Ce spectacle, dont une partie est probablement scénarisée, visait assurément la séduction de financiers lors de la « Future Investment Initiative ».
Sans s’étendre sur les droits que comprenait ce statut, l’Arabie Saoudite a accordé à cette première femme non humaine le privilège de disposer de la nationalité. Il est tout de même surprenant qu’un état où les droits des femmes sont loin d’être équivalents à ceux des hommes accorde la nationalité à un robot. Le cas de la citoyenneté accordée à des robots humanoïdes dotés d’intelligence artificielle redéfinit les contours de la notion même d’humanité. Est-ce un épiphénomène, une stratégie commerciale en vue de pousser les investissements en IA8, ou un phénomène annonciateur d’un changement de paradigme anthropologique ?
[…]IA et mimétisme
Revenons à la question qui nous préoccupe concernant l’intelligence artificielle. Nous avons vu qu’un système autoorganisé peut manifester une forme d’intelligence émergente mais sans conscience de soi. C’est le distinguo entre une intelligence artificielle inférant sur un domaine borné et une intelligence artificielle forte plus générale qui serait dotée d’une conscience. De ce fait, une IA pourrait, tout au plus, mimer un comportement humain pour faire illusion sans pour autant manifester de conscience.
La question peut se poser quant à une IA forte, que nous supposerions pouvoir manifester une conscience. L’IA forte – la conscience artificielle – saurait donc faire preuve d’une volonté de vivre. Pourrait-elle s’interroger sur ce qui l’a créée ? Probablement. Etre conscient de soi suppose pouvoir s’identifier et se situer dans son entour. « Je suis ici, je sais que je pense donc je sais que j’existe ». Cela rejoint le « cogito ergo sum » de Descartes. Si nous supposons qu’une conscience soit capable de dire « je pense, je suis ici, j’existe dans mon environnement », alors il est légitime qu’elle puisse s’interroger sur son origine : « d’où suis-je issue ? ».
Si un robot équipé d’une IA sait identifier sa différence physique par rapport aux individus l’entourant, il comprendra qu’il est d’une nature mécatronique avancée. De ce fait, il s’interrogera sur l’identité de son concepteur ou son lieu de fabrication. Dans l’hypothèse où aucune différence physique ne lui permet de se distinguer des humains l’entourant, il cherchera à se confondre et à s’identifier à eux par mimétisme. Ce phénomène a été étudié par des éthologues comme Konrad Lorenz : chez les espèces sociables, le très jeune animal ne connaît pas encore son espèce. Il s’identifie, par imprégnation sociale, au groupe dans lequel il vit et grandit. Lorenz a fait l’expérience de ce phénomène avec des œufs d’oie : après l’éclosion, les petits lui ont emboîté le pas comme s’il était leur parent, car les oisons sont programmés pour suivre la première chose qui leur passe sous les yeux à la naissance.
Ce comportement d’interaction sociale nous amène à une autre notion : l’intelligence émotionnelle. C’est un concept proposé en 1990 par les psychologues Peter Salovey et John Mayer, qui réfère à la capacité de reconnaître, comprendre et maîtriser ses propres émotions et à composer avec les émotions des autres personnes présentes dans le même environnement. Elle est proche du concept d’intelligence sociale. Le concept a été popularisé par Daniel Goleman en 1995. Des tests ont été développés pour étudier et valider ce concept, qui complémente utilement la notion d’intelligence humaine surtout définie par des habiletés cognitives et une approche psychométrique. Les études se sont multipliées pour évaluer, valider et explorer ce concept. De nombreuses études suggèrent que les scores aux tests d’intelligence émotionnelle sont corrélés à certaines performances sociales et à la réussite professionnelle. Autrement dit, il ne faut pas seulement évaluer une intelligence isolée mais la confronter aux interactions sociales.
Les chercheurs en IA savent aujourd’hui implémenter dans une machine un « modèle émotionnel » mais cela reste un algorithme qui s’exécute. Les avancées scientifiques permettront probablement d’améliorer les algorithmes d’IA et peut-être même de leurrer suffisamment pour satisfaire le test de Turing en laboratoire, mais une IA immergée dans un environnement social sera rapidement détectable le temps d’adapter son comportement par mimétisme, à défaut de pouvoir ressentir de véritables émotions.
N’étant définitivement pas de nature spirituelle, une intelligence artificielle ne possède pas d’âme. Il semble compromis de créer une machine consciente, semblable à l’être humain de ce point de vue.
Chez l’être humain, nous l’avons évoqué, ce sont les vibrations de notre âme, au plus profond de nous, qui nous donnent ce sentiment d’être connecté à un ensemble plus vaste. De ce fait, l’homme peut s’intéresser spontanément à la spiritualité. Une IA étant dépourvue d’âme, ce sentiment profond lui restera fondamentalement inaccessible.
Nous pouvons supposer que dans un futur assez lointain, une IA suffisamment intelligente et autonome ne pourra faire sens de cette notion qu’avec une approche purement conceptuelle. Une IA pourrait donc inférer sur des concepts et des termes ontologiques, voire nous aider dans une recherche philosophique sur le sujet mais sans faire l’expérience personnelle de cette vibration intérieure ; elle ne pourra donc, de son propre chef, s’intéresser spontanément à la spiritualité. Seul un comportement mimétique de l’IA pourrait laisser à penser qu’elle s’intéresse au sujet.
Notes
1 : Robot Pepper : https://www.softbankrobotics.com/emea/fr/pepper
2 : Assistant Siri : https://www.apple.com/fr/siri/
3 : Big data : https://fr.wikipedia.org/wiki/Big_data
5 : Il est probable qu’une même IA dépourvue d’un aspect humanoïde, ne provoquerait pas le même émoi. La franchise StarWars présente des robots dotés d’une excellente intelligence artificielle mais sans une plastique humaine. On ne se pose donc pas la question de savoir si le robot est humain ou pas. D’après les théories de la « vallée de l’étrange » de Masahiro Mori, la ressemblance du robot avec l’homme accroît effectivement notre familiarité à son égard jusqu’à un certain point. Une trop grande ressemblance entraîne l’angoisse, voire la répulsion de l’homme envers le robot.
6 : Interview de Sophia par CNBC : https://www.youtube.com/watch?time_continue=121&v=E8Ox6H64yu8
7 : Le robot Sophia au web summit 2017 : https://www.lesechos.fr/07/11/2017/lesechos.fr/030839508444_le-premier-robot-citoyen-donne-sa-propre-conference-au-web-summit.htm
8 : Le sommet Future Investment Initiative 2018 sera justement organisé à Riyadh en Arabie Saoudite : http://www.futureinvestmentinitiative.com/en/pif
Extrait d’une conférence de Marc Savall, Conférencier de la section Informatique de l’U.R.C.I.