Les IA débattent mieux que nous ?
Cet article est paru sur Les Echos, le 20 août 2018.
L’interaction avec les machines requièrent une meilleure compréhension et production du langage humain. Aujourd’hui encore très rudimentaires, la qualité des échanges progresse pourtant à grande vitesse et pose de nombreuses questions, scientifiques comme éthiques.
Il ne suffit que de quelques secondes d’interaction avec les assistants personnels d’Apple, Google ou Amazon pour comprendre le fossé qui nous sépare encore de véritables dialogues Homme-machine. S’ils répondent parfaitement à des questions et demandes circonscrites, ils sont incapables d’échanger sur le futur de l’agriculture mondiale ou la situation économique du Venezuela. C’est que de tels débats nécessitent la maîtrise de nombreux éléments, chacun d’une extrême complexité : chercher des idées, formuler des arguments, détailler des exemples, structurer son propos, réfuter les arguments avancés par son contradicteur… Ce n’est pas un hasard si Tom Wolfe, dans son ouvrage Le règne du langage, faisait de la parole humaine, seul animal capable de débattre, échanger avec des concepts abstraits et mobiliser des faits pour les appuyer, un élément de notre supériorité intellectuelle dans le cadre de l’évolution darwinienne.
Mais à l’ère des intelligences artificielles, cette spécificité ne va peut-être pas durer ! En juin dernier, IBM a dévoilé le projet Debater, une IA capable de débattre avec des humaines sur des sujets d’actualité, aussi divers soient-ils. Comme lors du match entre l’IA AlphaGo, développée par Google, et le champion du monde du jeu de go, Lee Sedol, IBM Debater a battu l’israélien Dan Zafrir, débatteur professionnel sur deux sujets différents.
https://www.youtube.com/watch?v=UeF_N1r91RQ
Sans connaître les sujets des échanges à l’avance, l’IA construit ses interventions sur la base d’une gigantesque base de données de 300 millions d’articles de presse. Le résultat ? Non seulement les arguments formulés étaient cohérents, répondaient dans la très grande majorité des cas aux problématiques posées par le débat mais l’IA réfutait également les arguments avancés par son contradicteur. La qualité de l’expression est également remarquable avec une excellente maîtrise des structures grammaticales et une élocution fluide.
Il faut souligner les prouesses ici réalisées car si pour nous il est parfois difficile de déterminer la pertinence d’un argument sur un sujet donné, c’est une tâche encore plus complexe pour une IA. Le fait qu’elle mobilise des idées plausibles et appropriées au sujet traité, montre son degré de développement. Et dans le même temps, comme nous sommes moins enclins à dialoguer avec des machines dès que nous repérons leur expression robotique caractérisée par leur voix artificielle, Google, avec le système Duplex, prouve qu’une voix artificielle peut imiter celle d’un humain, sans que nous puissions faire la différence.
https://www.youtube.com/watch?v=bd1mEm2Fy08&t=62s
De nombreuses applications s’offrent à ces nouvelles intelligences artificielles dans toutes les situations où il est crucial de vérifier la véracité de données ou de faits, notamment en temps réel : durant un interrogatoire de police, dans le cadre judiciaire, dans le système éducatif ou dans le monde politique pour vérifier la véracité des faits avancés... une arme anti-fake news.
Néanmoins, l’IA dispose encore d’un long chemin à parcourir pour tenir tête aux humains. Déjà lors de la démonstration d’IBM, au fil des prises de parole, l’IA a une tendance à se répéter, mobilisant plusieurs fois les mêmes éléments. D’autre part, elle ne tient pas compte des réactions spontanées de son contradicteur, de ses changements de ton ou même des réactions du public. L’ensemble de ces informations para-verbales, non-verbales ou contextuelles jouent pourtant un rôle essentiel dans toute interaction humaine. Enfin, le cadre d’élocution demeure encore bien délimité, puisque le thème du sujet est connu et circonscrit. Un échange humain est souvent bien plus brouillon, sautant parfois d’un sujet à l’autre.
Enfin, de nombreuses questions restent en suspens. Comment l’IA, qui construit ses arguments sur la base d’un corpus préexistant, fait-elle pour forger ses « propres » opinions ? Comment fait-elle pour sélectionner ses arguments selon les contextes d’écoute et d’expression ? Comment saura-t-elle les limites éthiques des arguments potentiellement mobilisables ?