Le sujet fait débat depuis quelque temps. Certains journaux évoquent que des Intelligences Artificielles peuvent plus ou moins détecter nos émotions. Le dernier en date à ma connaissance a été publié dans le journal The Conservation du 25 avril 2021 (1) sous le titre bien rabatteur : L’Intelligence Artificielle est-elle prête à comprendre les émotions humaines ?
La détection des émotions fait le choux gras de nombreuses sociétés notamment à des fins marketing depuis des années. Qui n’aimerait pas tout connaitre de son prochain surtout si c’est pour lui faire acheter ses produits ou savoir tout de lui ?
C’est purement et simplement en analysant le comportement des gens à l’aide d’internet que l’on peut créer des bases de données afin d’enrichir les Intelligences Artificielles. Vos recherches, vos comportements sur la toile sont analysés pour mieux vous connaitre. Et mieux guider vos choix de vie.
Dans quel but ? Plus afin que le donneur d’ordre atteigne ses objectifs.
Je m’explique. Imaginons que vous ayez une entreprise commercialisant des chaussures classiques. Vous souhaitez connaitre la tendance marché et/ou lancer une mode de paire de chaussures. Plusieurs solutions s’offrent à vous dont :
° Faire une étude marketing qui pourrait être limitée en résultat dans la collecte d’information sur le comportement des consommateurs
° Créer une tendance mode que vous allez imposer par manipulation en détournant les comportements du consommateur (plus d’informations sur le chapitre Manipulation : https://nadinetouzeau.com/manipulation/) .

Cette seconde solution s’appuie surtout sur des logiciels de type Intelligence Artificielle. Et cela existe depuis très longtemps. Influencer autrui pour mieux vendre même n’importe quoi.
C’est aux USA que cela se pratique depuis des années. Les sciences du comportement y sont très présentes mais pas toujours utilisées à des fins saines ! L’analyse comportementale, le profilage sont des métiers plutôt connus et reconnus aux Etats-Unis. Le marketing, la politique, la justice, sont parmi les environnements friands d’analyser les comportements d’autrui à des fins de réussir sur leurs objectifs.
Je veux que le peuple vote pour moi, je jouerai sur leur émotionnel. Et l’idéal est de créer un sujet qui affectera l’émotion du peuple pour les faire réagir comme un seul homme. Fédérer l’opinion permet d’obtenir plus de soutien. Plusieurs exemples peuvent être cités et je n’en ferai pas débat sur ce post. Je préfère que vous vous fassiez votre propre analyse, réflexion et opinion. Posez-vous les questions, sur le réchauffement climatique, la famine, les catastrophes diverses et variés, les pandémies, le terrorisme, le choix des énergies, la valorisation de certaines personnes plus que d’autres, etc. Comment cela a été amené, par quel biais et sur quelle corde sensible les messages ont-ils été véhiculés ?
L’émotionnel est le vecteur. Mais ce qui est encore plus intéressant, c’est que l’émotionnel a été rendu générique : on a sensibilisé des milliers de gens en même temps sur des sujets planétaires. Ainsi les discussions vont bon train, les influences aussi. L’indifférence n’a que peu de place dans tous les cas.
Les personnes ayant peu de caractère, se positionnant mal dans leur vie, manquant de confiance, fermées voire sectaires auront tendance à facilement plonger dans cet océan affectif. Ils y croiront et valideront les mots sans rechigner.
A contrario, les personnes analytiques, aguerries, avisées, réfléchies, chercheront à faire la part des choses et ne prendront que rarement une position spontanée. Parfois même ne prendront aucune position !
Entre deux, il reste un nombre important de personnes. Qu’en faire si ce n’est les aider à prendre une décision ! Une forme de manipulation en somme.
C’est là que peut intervenir l’Intelligence Artificielle entre-autre. Elle a court sur les réseaux sociaux, les médias, tous les endroits d’expression libres et publiques. Elle analyse tous vos comportements, vos réactions, vos écrits, vos clics, vos interconnexions entre vos contacts, vos achats, vos applications…. Elle ponctuera là où c’est nécessaire pour influencer vos choix dans leur sens . Vous pensez prendre une décision seul, en fait il est attendu que vous ingériez leur volonté.
Ainsi, c’est de cette manière qu’on orientera votre choix de chaussures et cela aidera notre entreprise qui a besoin de vendre plus de chaussures, mais lesquelles ? On testera inconsciemment des chaussures différentes et vos réactions orienteront la mode tout en vous influençant. Vous voulez des chaussures fun pour vos enfants, créons la paire de chaussures qui s’allume. Les enfants vont adorer : ça se fabriquera et vendra par ce qu’émotionnellement les enfants aimant cela, ils suggéreront que leurs parents achètent la dite paire de chaussures. L’influence sera telle que le copain d’école sans ce genre de chaussures sera isolé.
Lorsque l’on évoque que les Intelligences Artificielles sont capables de connaitre vos émotions, n’est-ce pas par ce que les bases de données deviennent suffisantes pour en remplir un logiciel dédié à cela. Sachant que les bases de données viennent du terrain !
Les algorithmes pour alimenter ce genre de logiciel exigent des arborescences parfois limitées en quantité afin de déployer le savoir. L’humain étant très complexe, unique et différent les uns des autres, il est difficile d’intégrer tout ce qui le compose dans un logiciel. Même si le focus est fait sur les émotions.
Lorsque nous analysons le comportement d’autrui, chaque geste, mot, tic, signe, attitude, position, etc. restent uniques. Pour exemple, mes clients victimes de burn-out ne présenteront pas les mêmes comportements les uns des autres. Le contexte est identique pourtant, parfois dans la même entreprise, mais les profils sont différents. Donc les émotions sont représentées, vécues et exprimées différemment et ne sont pas les mêmes pour tous.
Comment un logiciel peut détecter des émotions ? Je pense uniquement sur du basique et générique. Pour autant, certaines bases injectées dans des Intelligences Artificielles donnent de très bons résultats. Tel le sourire, la colère, la tristesse… des émotions simples qui dégagent des signes distinctifs communs à certains profils. En revanche, le logiciel ne pourra probablement pas détecter la cause de ces émotions ? Sont-ce des vrais sourire, colère et tristesse ?
Avant de conclure cet article, je citerai un passage du papier cité plus haut : « la plupart des bases de données utilisées actuellement en IA sont composées d’expressions faciales « jouées », dans un décor neutre, et représentant un éventail limité de catégories d’émotions. » Tout est dit ! Du reste, lorsque cet article évoque Lie to me, il est étonnant qu’il ne parle pas de Paul Ekman (2) qui est consultant de cette série télévisée, certes truffées d’erreurs déjà dans la bande annonce. Cet éminent chercheur est une référence sur les signes faciaux universels, micro-expressions, etc. qui ne peut être écarté lorsque l’on évoque des émotions.
Si l’article évoque que le contexte permet de générer une émotion, il convient d’ajouter que le déclencheur me parait plus juste pour éveiller une émotion. Un contexte ne provoquera pas forcément une émotion, un déclencheur si. La question est de savoir si l’émotion sera canalisée ou pas ! A savoir, la raison prendra-t-elle le dessus sur l’émotion. L’Intelligence Artificielle peut-elle comprendre cela ? je ne pense pas. Car l’émotion existe bien, mais se devine autrement ! D’où l’importance du profilage notamment qui détectera ce que cache le signe, l’émotion autrement qu’exprimé ou masqué.
Voyez la complexité de détecter les émotions par Intelligence Artificielle. Ce qui ne veut pas dire que cela est impossible. Les bases de données sont importantes selon la qualité et quantité, selon qu’elles soient professionnelles. Les résultats n’en seront que meilleurs. Mais c’est rarement le cas. De nombreuses erreurs de « jugements » ont été révélées du fait d’Intelligence Artificielle. Notons aussi que les analyses de la collecte de données concernant les émotions doivent être réglées au plus justes et dans la neutralité. Une complexité, que dis-je, un défi de plus pour les algorithmes !
Ce qui est également souvent occulté c’est la formation des personnes qui analysent par IA et traduisent la compréhension de la collecte des données. Là encore, un travail considérable doit être mis en place. Comprendre que le logiciel n’est qu’un support et ne transposera en rien le travail d’un être humain parait évident. Qui mieux qu’un être humain peut comprendre un autre être humain ! Une machine ? J’émets des doutes en considérant que le futur discréditera certainement mes propos.
Enfin, je reprendrai des écrits de la société Sophros France (3) :
« Selon le professeur Kate Crawford, co-fondatrice de l’Institut AI Now à l’Université de New York, l’IA est de plus en plus utilisée pour faire toutes sortes de choses, bien qu’elle ait été développée sur des “bases très fragiles”.
AI Now est un institut de recherche interdisciplinaire dédié à la compréhension des implications sociales des technologies liées à l’IA. Il publie des rapports sur les potentielles interrogations et préoccupations liées à cette technologie depuis plusieurs années. L’institut demande une législation pour réglementer la détection des émotions, ou encore ce qu’il désigne par son nom plus formel : “la reconnaissance des émotions“, dans son dernier rapport annuel :
Les régulateurs devraient interdire l’utilisation de la reconnaissance des émotions dans les décisions importantes qui ont un impact sur la vie des gens et l’accès à certaines opportunités … Étant donné les fondements scientifiques contestés de la technologie de reconnaissance des émotions, une sous-catégorie de la reconnaissance faciale, qui prétend détecter des éléments tels que la personnalité, les émotions, la santé mentale ainsi que d’autres états internes, elle ne devrait pas être utilisée dans les décisions importantes concernant la vie d’êtres humains, comme les entretiens d’embauche par exemple, le coût d’une assurance, l’évaluation de la douleur de patients ou encore la performance des élèves à l’école. »
Des propos qui font rebondir sur un autre sujet notamment la RGPD !
A-t-on le droit de détecter nos émotions qui peuvent être mal interprétées ? A-t-on le droit de guider nos choix en exerçant un pouvoir manipulatoire sur nos émotions ?
Est-ce l’avenir afin que tout le monde développe une émotion générique d’avoir usé de manipulation par des Intelligences Artificielles ?
La réponse est en vous ! Voulez-vous qu’on développe le pouvoir sur vous pour alimenter une IA et guider votre vie ?
3 mai 2021
Nadine Touzeau
Analyste comportementale, profiler, net-profiler, chercheuse en comportements des cybercriminels
Toute reproduction partielle ou entière de cette article est interdite.
1 – Article The Conversation https://theconversation.com/amp/lintelligence-artificielle-est-elle-prete-a-comprendre-les-emotions-humaines-151409
2 – Paul Ekman né le 15 février 1934, est un psychologue américain. Il fut l’un des pionniers dans l’étude des émotions dans leurs relations aux expressions faciales (théorie de détection des micro-expressions élaborée à partir d’études sur les sociétés primitives et leurs réactions universelles à diverses photographies)1. Il est considéré comme l’un des cent plus éminents psychologues du XXe siècle.
3 – Article Sophros France https://news.sophos.com/fr-fr/2020/01/07/reconnaissance-emotions-par-intelligence-artificielle-doit-etre-reglementee/
Vous devez être connecté pour poster un commentaire.