Nous ne sommes pas prêts de dialoguer avec une intelligence artificielle
Cet article est paru sur Usbek & Rica, le 8 décembre 2017.
« Ok Google, quelle est la recette du tiramisu ? » « Ok Google, à quelle heure est le match de football de Paul demain ? » « Ok Google, comment dit-on promesse en danois ? ». Voici en quelques mots, la richesse de nos échanges avec les assistants personnels comme Google Home… Aujourd’hui très limitées, ces interactions orales laissent pourtant espérer des dialogues aussi riches et complexes que ceux que nous entretenons entre humains. Problème : le langage humain demeure une énigme encore irrésolue.
Comme les GAFA l’ont bien compris, la compréhension et la production du langage humain par les machines représente un nouveau défi technologique. Aux frontières de l’informatique, de la linguistique et de l’intelligence artificielle (IA), le Traitement Automatique du Langage Naturel (TALN) connaît depuis plusieurs mois un fort engouement.
Dans le film Her de Spike Jonze, Theodore (alias Joaquin Phoenix) entretient une relation amoureuse avec une intelligence artificielle (Samantha, jouée par Scarlette Johansson) dont l’esprit et la voix sont similaires à ceux de l’homme.
La réalité ne dépasse pas la fiction
Ce film symbolise ainsi la réussite du célèbre test de Turing, énoncé par le scientifique du même nom en 1950, et au sein duquel un humain, engagé dans une conversation avec une intelligence artificielle (sans qu’il ne le sache au préalable), ne peut savoir s’il s’agit d’une machine ou d’un de ses pairs. Le film Ex Machina d’Alex Garland porte exclusivement sur ce test réalisé entre un programmateur, Caleb, et une intelligence artificielle, Ava.
Dans le même temps, Amazon comme Google ont déjà vendu plusieurs millions d’exemplaires de leurs assistants personnels, Alexa et Google Home. Leur promesse est véritablement post-digitale puisque elle vise à mettre fin à l’usage de nos mains pour interagir avec les machines.
Si en 2012, Michel Serres rassemblait les récentes innovations technologiques sous le vocable « petite poucette », toujours en référence à nos doigts qui pianotent sur les écrans et claviers d’ordinateur, il est fort à parier que demain il s’agisse plutôt d’une « petite chansonnette ».
Nous sommes encore (très) loin de parvenir à passer le test de Turing
Pourtant, à ce jour, malgré les avancées scientifiques et technologiques rapides, nous sommes encore (très) loin de parvenir à passer le test de Turing. Pour vous en convaincre, interagissez, ne serait-ce que quelques secondes, avec Siri ou Cortana… Il existe un monde entre les promesses déjà concrétisées dans les fictions et la réalité de nos interactions avec les machines. Non seulement la parole de ces machines est pauvre intellectuellement mais leur voix demeure trop artificielle pour se laisser duper.
L'intelligence artificielle selon Chomsky
La raison de cet écart est pourtant très simple : l’origine du langage humain demeure encore aujourd’hui une question ouverte pour les linguistes. D’où vient notre capacité, dès l’enfance, à nommer les choses aussi facilement ? Pourquoi sommes-nous les seuls animaux à utiliser un langage si élaboré et complexe ? Ces questions sont notamment posées dans le dernier ouvrage de Tom Wolfe, Le règne du langage. L’auteur montre que la théorie évolutionniste de Darwin ne dit rien sur notre capacité langagière et que la thèse de Noam Chomsky, pape de la linguistique contemporaine, reste très fragile.
Intéressons-nous justement à Noam Chomsky. Plus connu en France pour son combat contre la guerre du Vietnam et l’impérialisme américain, ce penseur iconoclaste a révolutionné la linguistique et considère que l’IA n’est pas prête d’interagir avec nous.
Noam Chomsky à Toronto en 2011 (Wikimedia Commons)
Pour comprendre sa position, il nous faut revenir sur sa théorie linguistique. Dans les années 1950 (à l’époque où le test de Turing est élaboré), la discipline est moribonde. Réservée à des universitaires, elle se résume essentiellement à l’étude de langues amérindiennes menacées… et exotiques. Les chercheurs passent ainsi leur vie au plus près de peuples reculés d’Amazonie pour tenter de décrypter leur langue, en apparence si différente de la nôtre. Mais ces travaux n’intéressent guère Noam Chomsky qui écrit sa thèse sur « la structure logique de la théorie linguistique ». Autrement dit, il ne s’agit plus de partir de cas particuliers mais de formaliser ce qu’il appelle une grammaire universelle.
Pour Chomsky, les langues disposent toutes d’un fonctionnement central similaire à celui d’un langage informatique
Prenez un martien qui, arrivant sur Terre, parlerait successivement à un Français, un Indien, un Américain, un Russe, un Japonais et un Kanak. Quelle est selon vous la première chose qui va le frapper ? La similarité de toutes ces langues ! Oui vous avez bien lu, la similarité de ces langues. En effet, selon Chomsky, les langues disposent toutes d’un fonctionnement central similaire à celui d’un langage informatique.
Dans chaque cerveau humain il existe une boîte noire qui renferme notre capacité langagière. Tel un organe, comme le foie ou le cœur, une partie du cerveau humain est donc dédiée au langage. Elle stocke tout le langage depuis notre naissance et nous le mobilisons petit à petit au cours de nos premières interactions avec nos pairs, dès nos premiers mois de vie. Ainsi, malgré la variété des langues, les structures sous-jacentes sont en réalité similaires à tous les hommes. Autrement dit, tous les enfants peuvent apprendre n’importe quelle langue. Ce qui change, c’est le contexte et l’environnement dans lesquels ces langues sont apprises. Ainsi par exemple, en japonais, aucune distinction n’existe entre le R et le L. Comme l’enfant n’y est pas exposé lors de son apprentissage, à partir de 9 mois, son cerveau élimine définitivement cette distinction. Le système langagier s’adapte ainsi au contexte pour être plus efficient.
Des Geishas reprennent le motif des « Singes de la Sagesse », par Vintage Lulu CC Flickr
Cette thèse s’oppose frontalement à celle du behaviorisme qui affirme que nous apprenons les langues en imitant nos parents et nos pairs. Ici il n’y a pas de grammaire universelle, notre langage se forme au contact des autres. Et c’est là que l’intelligence artificielle entre en jeu.
Google Home, Alexa ou Siri sont de vulgaires perroquets
Chomsky avance en effet que l’IA se développe selon les principes de la théorie behavioriste, c’est-à-dire en essayant d’imiter les humains, et notamment son langage. Pour lui, les assistants personnels comme Google Home, Alexa ou Siri sont de vulgaires perroquets et non des intelligences artificielles. La preuve ? Si vous leur posez une question à laquelle ils n’ont pas la réponse, ils vous rétorquent qu’ils ne peuvent pas répondre à votre requête. Ils ont besoin d’un « input » c’est-à-dire d’une source initiale qu’ils pourront ensuite imiter et répéter. Sans cette source initiale, ils ne peuvent élaborer une réponse à partir de ce qu’ils savent déjà.
Aucun algorithme ne pourra percer le mystère du langage
Mais Noam Chomsky va encore plus loin. Il affirme que le langage est un objet bien trop complexe à comprendre pour la neuroscience et qu’ainsi les intelligences artificielles ne nous aident pas à comprendre comment celui-ci fonctionne.
Cette critique est essentielle car elle remet en cause l’ensemble des promesses qui entourent le développement des IA et du langage. Chomsky montre que, certes, nous utilisons des algorithmes statistiques mais nous ne savons pas s’ils pourront un jour produire du langage comme nous le faisons. Car, rappelez-vous, nous ne connaissons pas les raisons de son origine ni son fonctionnement exact…
En 2012, dans une longue interview accordée à The Atlantic, il affirme : « Si vous avez de plus en plus de données, et de meilleures statistiques, vous pouvez avoir une approximation de plus en plus fine d’un corpus de texte immense, quelque chose comme l’ensemble des archives du Wall Street Journal, mais vous n’apprenez rien sur le langage ». Conclusion ? Aucun algorithme ou modèle n’existe pour décoder et reproduire notre système biologique à l’origine du langage. Ce dernier étant très complexe, comme notre système immunitaire, il ne peut pas être reproduit par inférence d’après des données et des statistiques. Il nous manque la compréhension du logiciel originelle qui comprend et produit le langage.
Langage, par Thomas Hawk, CC Flickr
Bien sûr, l’IA ne comprend pas non plus ce qu’elle entend ou exprime. Autrement dit, si pour Chomsky l’approche statistique peut être utile comme dans l’exemple d’un moteur de recherche, ce n’est pas parce que vous tapez la requête « Mickaël Jackson est mort » que l’algorithme comprend ce que cela signifie.
Bourdieu vs Chomsky
Au regard de la théorie linguistique actuelle, cette attaque semble valide tant le langage demeure un mystère. Néanmoins, la théorie linguistique de Chomsky est largement remise en cause et fait l’objet de nombreuses critiques et limitations. Tout d’abord, l’analyse se concentre sur la structure interne du système plus que sur les liens qu’ils existeraient entre des comportements passés et l’environnement dans lequel nous évoluons. Or, de nombreux travaux comme ceux de Pierre Bourdieu, ont montré le rôle majeur de ces éléments.
Le sociologue français considère le langage comme étant avant tout un système de relations de pouvoir symboliques où chaque mot dispose d’une signification particulière selon son milieu social, des expériences passées… Le langage est ici un phénomène social. Or, une IA n’a aucune idée si les mots qu’elle emploie sont blessants pour la personne qui les reçoit.
La théorie chomskienne permet ainsi de nuancer les avancées en cours dans le domaine du traitement automatique du langage naturel (Natural Language Processing en anglais). Par la même, elle explique les limitations et déficiences actuelles des assistants personnels. La réussite du test de Turing demeure aujourd’hui une fiction fascinante mais sa concrétisation nécessitera de comprendre les mécanismes constitutifs du langage humain.
Sans ces avancées cognitives et scientifiques, l’IA ne parlera peut-être jamais notre langage !