Introduction au NLP - Partie 6/6 - NLP et rapport au monde

17-12-2018   •   6 min de lecture

Dans la Cinquième partie, nous avons montré de quelle manière l’ambiguïté, l’humour, la poésie, posent des difficultés d’interprétation en NLP.

Il s’agit à présent d’approfondir la question du rapport au monde et à autrui. Pourquoi les chatbots et IA sont-ils spécialisés, inaptes pour embrasser tout le spectre de nos interactions ? Des machines pourront-elles comprendre un jour nos émotions, susciter notre empathie, instaurer le dialogue ?

Nous allons rendre compte dans cette dernière partie de la distance qui sépare de nous les programmes informatiques les plus performants.

 

Rapport au monde

Plus profond que la question de l’ambiguïté des énoncés, est le problème du rapport au monde. Beaucoup se joue dans l’expression du langage humain qui complique l’exercice d’un langage de même ordre par les machines.

Source : Burst

Implicite & horizontalité

En premier lieu, l’implicite relève du contexte d’interaction. La machine ne peut pas disposer d’une connaissance d’arrière-plan pour chaque situation, chaque niveau d’interaction, chaque interlocuteur. Certes l’homme non plus, mais il mobilise des ressources innées et acquises, de l’ordre du raisonnement et de l’intuition, pour s’y adapter.

Actuellement, la plupart des programmes informatiques se concentrent sur un sous-domaine particulier. On dispose ainsi de chatbots RH, médical, éducatif, etc. – mais pas tout cela à la fois.

Source : Unsplash

Narrow & General IA

On distingue donc, à l’heure actuelle, entre Narrow et General IA. Les compétences de la première sont limitées. La seconde n’existe pas encore. Cette puissance hypothétique serait capable d’appréhender notre univers dans sa totalité et de produire dans tous les cas des réponses adaptées.

Quoique les GAFAM y œuvrent avec les assistants personnels intelligents, nous ne disposons pas encore d’intelligence artificielle générale. Pourquoi ? Sans doute manque-t-il d’abord aux systèmes et outils informatiques la capacité à notre imitation de mutualiser plusieurs “sens”. Des capteurs pour voir, mesurer, sentir, afin de réduire les incertitudes inférentielles.

D’autre part, il faudrait que les programmes aient connaissance de l’identité et de l’histoire des interlocuteurs, soit accèdent à tout l’historique de nos données interpersonnelles et que nous acceptions cette intrusion. Enfin, c’est le plus délicat, il faudrait que les intelligences artificielles maîtrisent nos codes et sachent imiter nos émotions – sans les singer, et nous mettre mal à l’aise, en nous plongeant dans l’Uncany Valley (“Vallée de l’étrange”).

Codes socio-culturels

Langage naturel et société sont inséparables. Pour le critique littéraire Roland Barthes, “la parole emprunte ses tours à un ensemble de codes culturels et oratoires” (Le grain de la voix). Le linguiste Émile Benveniste, auteur des Problèmes de linguistique générale, l’affirme également : “langue et société ne se conçoivent pas l’une sans l’autre.”

Notre langage rend compte de notre représentation du monde, de notre organisation sociale, de notre effort pour communiquer. Or, la machine ne peut intégrer et mobiliser tant de références et de conventions.

C’est principalement pour cette raison que le travail de traduction à l’ONU est toujours accompli par des humains. Certes, les traducteurs recourent à certains outils automatiques. Mais leur activité exige la maîtrise d’un trop grand nombre de savoirs, associée au maniement d’un éventail complexe de concepts intellectuels, pour être confiée aux machines.

 

Le langage et l’homme

Le langage est-il le propre de l’homme, irréductible, inimitable par la machine ? On peut se représenter le langage, suivant une certaine tradition de la philosophie classique, comme le signe de l’essence supérieure de l’homme. D’un autre côté, le considérer avec Jean-Pierre Changeux comme un acquis surtout culturel, l’homme étant une créature “neuronale” comparable à un super-ordinateur mu par des impulsions physico-chimiques.

La seconde théorie est plus encourageante, pour concevoir une intelligence artificielle générale dont les neurones artificiels reproduiraient les circuits des nôtres. À ce stade, le langage, le raisonnement, la conscience de soi, du monde et d’autrui, distinguent et fondent encore notre humanité.

La “maison de l’être”

Pour Habermas, philosophe de la deuxième moitié du XXe siècle, lorsqu’un dialogue s’instaure entre deux hommes, ce n’est pas la fin “instrumentale”, “utilitaire” qui se trouve d’abord visée. C’est en réalité l’autre, envisagé comme sociabilité, subjectivité. Cette théorie est celle de l’agir communicationnel. Pourra-t-on jamais entretenir une relation de cette nature, intime et réciproque, avec une machine ?

Le langage dans son ambiguïté, ses ombres et ses non-dits, sa richesse, ses hésitations, sa façon de traduire l’empathie, l’antipathie, le désir, d’autres sentiments parfois mêlés, reste le propre de l’homme – “la maison de l’être” selon la formule de Heidegger.

Source : Unsplash

IA, design anthropomorphe

A cet égard, les conclusions d’études marketing récentes, conduites au Japon notamment, sont intéressantes.

Il s’agit de rendre les IA sympathiques aux humains pour favoriser leur utilisation. Dès lors, délibérément, chercheurs et ingénieurs (de la même façon que, dans le test de Turing, l’IA est programmée pour feindre ne pas avoir la capacité résoudre les calculs un tant soit peu complexes) donnent aux machines et à leur langage l’apparence de la fragilité, de l’hésitation, du mystère : bref, de l’être.

Business de l’analyse des émotions

La reconnaissance de nos émotions est un enjeu clé pour la R&D. Microsoft propose des API (application programming interface) de Cognitives Services les détectant. On a évoqué dans la Troisième partie la prosodie pour interpréter l’émotion dans la voix.

De nombreuses sociétés développent des projets dans le domaine. Il s’agit non seulement de reconnaître l’émotion de façade et d’ordre social, mais l’émotion intime, cachée, celle que l’on ne veut pas trahir. L’analyse peut se faire en temps réel ou à partir de vidéos, des capteurs être utilisés (mesure du pouls, de la dilatation des pupilles, etc.).

L’analyse peut porter sur une cible ou des groupes de centaines ou milliers d’individus. Les objectifs visés peuvent être d’ordre électoral, marketing, sécuritaire, RH, etc, pour analyser des états émotionnels tels que l’enthousiasme, l’hésitation, le stress, la colère, etc. Dans le film Her réalisé par Spike Jonze (2013), à Los Angeles dans un futur proche, Theodore tombe amoureux d’une General IA, Samantha – l’OS de son ordinateur. Le personnage communique par la voix et l’IA répond à ses besoins et désirs émotionnels.

Source : Warner, Annapurna Pictures

Refermons ce sixième volet. Il apparaît que l’obstacle majeur aujourd’hui en NLP est celui du rapport au monde. Les questions de l’implicite, des codes socio-culturels, de ce qui se joue d’émotion et de non-dit dans toute interaction, volent encore trop haut, trop loin des 0 et des 1.

Quelles que soient ses hyperperformances en termes de vitesse et puissance de calcul, de quantité d’informations traitées, de capacités d’apprentissage, la machine reste encore inférieure à l’homme.

Turing se sera-il trompé ? L’art de la conversation entre l’homme et la machine, c’est peut-être pour demain, en tous cas chez Clevy nous y travaillons 😉

Tags