L’intelligence artificielle est présente sur tous les plans. Actuellement, une reprise d’Eliza, le chatbot psy des années 60 serait envisageable. Disponible et avec une base de données importante, le robot-thérapeute pourrait améliorer la santé mentale de plusieurs personnes. Pourtant, plusieurs professionnels craignent que celui-ci soit dénué d’empathie et qu’il ne puisse pas appréhender la détresse de son interlocuteur.
Actuellement, l’intelligence artificielle est vue comme un assistant virtuel. Un utilisateur peut poser des questions anodines, ou pointues comme « qu’est-ce que le portage salarial ? ». Toutefois, l’IA tend à se vulgariser et une thérapie proposée par un robot pourrait exister prochainement. Bien qu’elle semble étonnante, cette initiative n’est pas nouvelle. En 1966, une IA nommée Eliza a été conçue pour reproduire les analyses d’un psychothérapeute.
Comme la santé mentale devient un sujet de plus en plus abordé, des systèmes de suivis sont proposés. Parmi ces initiatives, il y a les robots-thérapeutes. D’ailleurs, cette approche semble concluante, car plusieurs patients affirment qu’ils sont plus à l’aise avec l’interlocuteur numérique.
Les enjeux de la robot-thérapie
L’éthique professionnelle d’un psychologue est de « ne pas juger son patient ». L’IA n’a pas besoin d’être programmée pour le faire. Cette caractéristique rassure les patients et favorise l’expression de leurs sentiments. De plus, grâce à une analyse approfondie des informations données par l’utilisateur, l’IA offre un constat objectif. Autre point fort de la robot-thérapie, le patient peut échanger à toute heure avec son consultant.
Toutefois, pour les experts en psychothérapie, l’IA ne serait pas capable de déceler le langage corporel ou comportemental. Cette caractéristique est importante pour la détection des signes d’un désir de suicide. L’objectivité des décisions de l’intelligence artificielle peut aussi être un point péjoratif. En effet, une machine dénuée d’empathie n’égalerait pas l’efficacité d’un diagnostic humain. Celle-ci étant programmée suivant les principes de ses développeurs, l’IA peut avoir des failles sociales, sexistes, voire racistes.
Du point de vue de certaines personnes, les chatbots sans apparence limitent le lien entre praticien et patient. La présence d’un interlocuteur visible possède ainsi une grande importance pour beaucoup de patients.
Les différences entre l’IA et le psy
Au cours de son intervention, un psy ne se limite pas aux histoires de son interlocuteur. En effet, il analyse également l’état émotionnel de celui-ci lorsqu’il aborde certains sujets. Ensuite, il regroupe ces informations selon leurs pertinences avant de donner son constat. De cette manière, il effectue un diagnostic propre pour chaque patient. La limite pour le psychiatre réside donc dans sa disponibilité et le sentiment de jugement que les patients ressentent.
Concernant la machine, elle effectue une collecte d’informations en se basant sur le profil de son patient. Des calculs sont, ensuite, effectués en se basant sur les données qu’elle a obtenues lors de ses entraînements. En travaillant de cette manière, l’IA rend son diagnostic en se basant sur toutes les informations qu’elle a trouvées. Conçue pour reprendre le même type de tempérament qu’un professionnel de santé, l’IA peut feindre une écoute attentive. De plus, comme elle est le résultat de la recherche d’un ingénieur humain, sa méthode d’analyse et de constat est basée sur la conception de ce dernier. L’IA peut donc rester un outil subjectif.