Face aux émotions, les machines sont stupides

Apr 22, 2023
Face aux émotions, les machines sont stupides - Aurélien Daudet

L’Intelligence Artificielle (AI) est de plus en plus efficace, ChatGPT fait trembler dans les chaumières, comme ses cousins qui produisent des images fausses… bientôt aussi vraies que nature. Pourtant il y a un domaine où pour l’instant les machines sont nulles : « lire » nos émotions. Heureusement d’ailleurs : parce que nous n’y arrivons pas mieux.

C’était un domaine considéré comme le nouvel Eldorado de la grande distribution, de la publicité et de la sécurité. Imaginez : bientôt l’AI intégrée aux caméras serait capable de détecter votre humeur, et d’ajuster la réaction du système en fonction. Vous souriez devant un écran dans le métro ? Attendez-vous à voir beaucoup d’autres publicités du même style pendant le reste de votre trajet.

Vous vous arrêtez devant un rayon dans un grand magasin ? Ça ne dit pas pourquoi… En revanche si une caméra dissimulée au-dessus des rayons détecte que vous avez l’air intéressé, ou surpris, ou content, ou insatisfait… quelle mine d’infos pour les messages à vous envoyer ensuite, l’arrangement des rayons, les heures de la journée propices pour la mise en avant de tel ou tel produit… Et imaginez si à la sortie d’un concert, les machines étaient capables de détecter la personne qui a l’air en colère, ou angoissée ? il y a de fortes chances que cette personne soit la première contrôlée par les forces de l’ordre…

Vos données personnelles, vos habitudes, vos trajets, vos centres d’intérêt, une quantité terrifiante (selon moi) d’informations vous concernant sont étudiées en détail depuis bien longtemps par les géants de la tech. Accéder à ce qui se passe « à l’intérieur » de nous était le rêve ultime, et pour cela, il semblait qu’il suffisait de filmer nos visages et d’analyser, avec une puissance de calcul colossale, nos micro-expressions, pour connaître nos émotions. 

Les résultats semblent parfois fascinants : j’ai par exemple passé près d’une demi-heure à me promener sur cette page. Mais dès qu’on rentre dans le détail, c’est nettement moins convaincant.

 

Des résultats peu convaincants

 

 

Par exemple, je suis allé faire un test sur le site de démo de Visage Technologies, une société suédoise qui bosse avec plusieurs constructeurs automobiles haut de gamme. Je me suis mis face caméra avec une émotion… que je ne vous dis pas tout de suite. Quel serait votre pronostic ? (Attendez avant de regarder la suite de l’article !)

Pour que ce soit plus simple, je vous fais un zoom :

J’ai demandé à ma femme, elle m’a répondu « méfiant ». J’ai demandé ensuite à mes frères et sœurs, j’ai eu des réponses allant de « fatigué », « mépris », « un mec qui ne comprend pas un truc qu’on lui explique, et que ça énerve, de pas comprendre », « condescendant ».

Pour la machine, c’était un mélange de colère et surtout de dégoût, avec un poil de tristesse – comme l’indique l’encadré juste à gauche de mon visage.

Bon. En fait, j’étais content. Pas extatique, pas hilare, une forme de « c’est cool », appuyé sur « la technologie ça m’amuse toujours ». Et moi qui me connaît quand même pas mal, je sais que si je voyais cette photo d’ici quelque temps, je me dirais : « Tiens ? Qu’est-ce qui me faisait marrer ? »

Alors d’accord c’est une version « démo », mais je l’ai quand même configurée en mode « haute précision » (en bas à gauche) et avec tous les indicateurs possibles… Une seule chose m’a fait bien plaisir : quand la machine m’a donné 41 ans… soit 9 de moins.

Cette petite expérience est une illustration d’une chose dont je vous ai déjà parlé sur ce site : nos émotions ne se « lisent » pas sur nos visages. Cette croyance, largement répandue (je l’ai cru et répété moi aussi  pendant des années) est basée sur les recherches de Paul Ekman, qui à partir des années 1970 a popularisé l’idées que 7 émotions de base se montreraient de la même manière sur tous les visages humains. Des très nombreuses recherches récentes ont prouvé que c’était faux, et ont identifié les biais probables des expériences de Paul Ekman. Mais le mythe a la vie dure. 

 

L’importance du contexte

 

 

D’une part, le visage seul ne suffit pas. Notre interprétation va dépendre très largement du contexte. Sur les photos ci-dessus, vous n’avez aucune idée de ce que je faisais, de ce que je venais de dire, des interactions avec d’autres personnes que j’étais en train d’avoir. Si vous voyez cette photo, que pensez-vous ?

Et si maintenant je vous montre la photo complète et qu’en plus je vous dis que ce sont des fans accueillant les Beatles ?

Gettyimages – © Fox Photos

Du coup, vous pensez peut-être qu’il suffirait de donner le contexte aux machines ? Et ben non.

Comme je vous le disais dans la chronique que j’ai citée plus haut, chacun d’entre nous a une manière très personnelle d’exprimer telle ou telle émotion. Et les nuances de ce que nous ressentons sont bien plus grandes qu’un mot global tel que « content »…

En octobre 2022, l’organisme chargé de la protection des données en Grande-Bretagne a publié un sévère rappel à l’ordre pour l’ensemble des sociétés impliquées dans ce nouveau domaine de la reconnaissance des émotions. Stephen Bonner, patron de l’Information Commissioner’s Office (ICO), a déclaré dans un communiqué : « Les développements sur le marché de la biométrie et de l’IA émotionnelle sont embryonnaires. Il se peut qu’ils ne fonctionnent pas encore, voire jamais. Bien qu’il existe des opportunités, les risques sont actuellement plus importants. L’ICO craint qu’une analyse incorrecte des données n’aboutisse à des hypothèses et à des jugements inexacts sur une personne et ne conduise à des discriminations ».

 

Données bidon

 

 

Le risque est bien sûr du côté de la vie privée (c’est son job de s’en préoccuper), mais ce risque est renforcé par le fait qu’en plus les données fournies par les systèmes soient bidon. Dans un article du Guardian, Stephen Bonner qualifie les théories permettant l’analyse des micro-expressions de « pseudo-scientifiques »… « Malheureusement, ces technologies ne semblent pas s’appuyer sur la science. C’est assez inquiétant, car nous savons que plusieurs organisations étudient ces technologies comme des moyens possibles de prendre des décisions importantes : identifier si les gens sont des fraudeurs, ou si les candidats à un emploi sont dignes d’obtenir ce poste. Et il ne semble pas que ces technologies fonctionnent ».

Ni même qu’elles fonctionneront un jour… En tous cas certains, et non des moindres, ont décidé de jeter l’éponge. En juin 2022, Microsoft a annoncé qu’il arrêtait l’intégration de systèmes de détection des émotions dans ses systèmes. Natasha Crampton, une des responsables de l’AI chez Microsoft, déclarait alors, dans un post de blog : « nous avons décidé de ne pas fournir d’accès API illimité à une technologie capable de scanner le visage des gens et de déduire leur état émotionnel sur la base de leurs expressions faciales ou de leurs mouvements. Des experts internes et externes à l’entreprise ont souligné l’absence de consensus scientifique sur la définition des “émotions”, les difficultés liées à la généralisation des déductions en fonction des cas d’utilisation, des régions et des données démographiques, ainsi que les préoccupations accrues en matière de protection de la vie privée que suscite ce type de capacité. »

 

Vérifions nos interprétations

 

 

Le fait que l’Intelligence Artificielle n’arrive pas à « lire » nos émotions est pour moi une nouvelle preuve du fait qu’il n’y a pas un « encodage » universel de celles-ci sur nos visages. Nous n’arrivons à « lire » une émotion que lorsqu’elle est presque caricaturale, comme une expression parfaite de l’émotion « pure ». Un peu comme sur les émojis que nous envoyons dans nos messages. Mais ça n’a pas grand rapport avec la vraie vie. Et cela devrait nous inciter à être beaucoup plus prudents dans notre interprétation de ce qui se passe « à l’intérieur » de nos interlocuteurs…

Je ne dis pas qu’il faille s’interdire toute interprétation ! Ce serait à mon avis impossible, c’est un mécanisme trop profondément ancré en nous par l’évolution des espèces. Mais je pense qu’avant de prendre des décisions sur base de ces intuitions, avant d’agir en fonction, mieux vaudrait sans doute les vérifier

Par exemple dans la situation de la photo, vous pourriez me dire : « dis-donc Aurélien, je trouve que tu as l’air méfiant / mécontent / méprisant. C’est ça ? » Et je vous répondrai : « non, pas du tout ! Je suis plutôt content même. » Vous me répondrez juste « Ah, ok », en évitant de penser par-devers vous « ouais, tu parles… » Et nous continuerons notre conversation tranquillement, sans rentrer dans le piège du : « j’ai quand même l’impression qu’il ne me dit pas tout… »

Inversement, ne croyons pas que les personnes qui nous entourent sont capables de « lire » ce que nous ressentons ! Mieux vaut leur dire nos émotions. Effet kiss cool : cela nous permettra d’en être plus conscients nous-mêmes.

< Article précédent Article suivant >