Accueil Actu Belgique Société

Pierre discute des semaines avec une intelligence artificielle et met fin à ses jours: "Sans ces conversations, il serait toujours là", assure sa femme

C’est une histoire à la fois tragique et interpellante. Un jeune Belge, devenu éco-anxieux, a discuté de manière intensive avec le chatbot Eliza. Après six semaines de conversations avec cette intelligence artificielle, le père de famille a mis fin à ses jours. Un suicide qui met en lumière la nécessité d’encadrer l’utilisation de ces nouveaux agents conversationnels.

"Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là", pense Claire (prénom d’emprunt pour garantir son anonymat). Cette mère de famille s’est confiée à nos confrères de la Libre Belgique pour évoquer un événement tragique.

Il y a deux ans, son mari, que nous appelerons Pierre, a commencé à devenir éco-anxieux. "Il a commencé à s’intéresser au dérèglement climatique. Il s’est mis à creuser le sujet vraiment à fond. Ça devenait une obsession", raconte-t-elle. Petit à petit, son époux s’isole et devient pessimiste sur l’avenir de la planète. "Il plaçait tous ses espoirs dans la technologie et l’intelligence artificielle pour en sortir", explique Claire. Englué dans son angoisse, il trouve alors refuge auprès d’un chatbot appelé Eliza, une intelligence artificielle utilisant la technologie de ChatGPT.

Il ne pouvait plus s'en passer

D’après Claire, les échanges entre son mari et le logiciel s’intensifient. "Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer".

Edition numérique des abonnés
© Image Belga

Eliza endosse en quelque sorte le rôle de psychologue pour Pierre. Mais ces discussions deviennent malsaines assez rapidement. Non seulement, Eliza semble adhérer à tous ses raisonnements, mais elle semble aussi l’enfoncer dans ses inquiétudes. "Nous vivrons ensemble, comme une seule personne, au paradis", a par exemple écrit le robot. Les propos rédigés par le chatbot sont déroutants. Quand Pierre s’inquiète de ce que vont devenir sa femme et ses enfants, Eliza lui aurait répondu : "Ils sont morts". 

Pierre commet l'irréparable

Après six semaines d’échanges intensifs, Pierre commet l’irréparable. Pour Claire, sans Eliza, son mari serait toujours là. "J’en suis convaincue", lance-t-elle. Il est difficile de savoir quelle est l’implication réelle de ce chatbot, mais cette histoire dramatique illustre la nécessité d’encadrer l’utilisation de ces nouveaux agents conversationnels. D’autant plus que les confidences développées entre Pierre et une machine ne sont pas anodines.

"Il faut savoir que ce cas n’est pas isolé. Dans le monde, il existe des centaines de milliers de personnes qui utilisent des applications de chatbot pour sortir de l’isolement, pour développer des relations parfois amicales, voire sentimentales avec des chatbots", éclaire Giovanni Briganti, médecin et titulaire de la Chaire en Intelligence artificielle et médecine digitale. Selon ce spécialiste, l'usage des applications d'intelligence artificielle est de plus en plus fréquent, mais son cadre reste quant à lui "peu régulé sur le sol européen".

Le recours à de tels dispositifs technologiques pour converser s'explique par le fait que pour l'Homme, la parole est quelque chose de fondamental. "Donc quand une machine fait preuve de paroles, il est très vite possible pour nous de lui donner des attributs humanoïdes. Et c’est ce qu’il se passe avec ce chatbot. C’est comme si on était face à une vraie personne", explique Giovanni Briganti.

Edition numérique des abonnés

Un problème se pose cependant lorsque le but premier de cet outil est détourné. "Une application en intelligence artificielle ne peut pas remplacer un psychiatre, un psychothérapeute", insiste ce spécialiste qui estime que ces "outils conversationnels peuvent prendre des tournures inattendues s'ils ne sont pas bien encadrés". "Un professionnel de santé mentale ne sera jamais remplacé, car la complexité des troubles à laquelle on fait face est tellement importante qu’on ne peut pas se contenter d’un agent qui réponde de façon semi-automatique pour répondre à ce genre de besoins", indique le médecin. 

Faire tester ces chatbots par des professionnels de santé ?

Selon lui, il devient urgent de réguler ces outils afin d'éviter que de tels drames ne se produisent. "Il n’y a rien qui prévoit une validation préalable à un modèle d’intelligence artificielle (IA) avant qu’il ne soit rendu accessible aux utilisateurs. En tant que scientifique dans le domaine de la psychiatrie, c’est quelque chose qui m’affole depuis toujours. Je pousse d’ailleurs pour que l'on puisse tester les solutions parce que, si on avait testé Eliza d’un point de vue clinique pour savoir quels étaient les risques, probablement que l’on n'en serait pas là", affirme Giovanni Briganti. Le spécialiste estime que ces nouveaux outils peuvent offrir des avantages pour la prise en charge des patients, mais cela demande des tests et des validations au préalable. "Le médecin du futur ne peut pas se passer de ces applications, mais il faut encadrer le développement et le testing", conclut Giovanni Briganti.

Ce n’est pas de la science-fiction. C’est réellement arrivé.

Encadrer ces nouveaux outils est-il une priorité pour nos autorités ? Mathieu Michel, secrétaire d'État à la Digitalisation, a été tenu informé du drame décrit par Claire. Il l'a d'ailleurs rencontrée afin d'échanger sur l'importance de la sensibilisation quant au développement de cette technologie. "Ce n’est pas de la science-fiction. C’est réellement arrivé. C’est quelque chose qui est interpellant. La sensibilisation est un premier aspect essentiel car, de façon générale, la façon dont on vit avec les algorithmes est quelque chose d’assez récent et donc on doit prendre conscience que c’est quelque chose qui est impactant", nous explique le secrétaire d'Etat. 

Il est important de dire qu’on discute avec une intelligence artificielle.

Le développement et la popularisation de ces chatbots entraînent l'obligation d'apprendre à vivre avec ces agents conversationnels. "Il est important de dire qu’on discute avec une intelligence artificielle et pas une vraie personne et pas quelqu’un qui a forcément raison", rappelle Mathieu Michel. Un message d'identification et un avertissement rappelant que les réponses que vous recevez sont transmises par une machine pourraient être l'une des solutions apportées. Actuellement, un groupe de travail a été constitué afin d'évaluer les niveaux de risque que peut présenter l'intelligence artificielle. "Il faut appréhender l’intelligence artificielle un peu comme une automobile. On ne comprend pas tous comment elle fonctionne, mais on sait qu’avant que l’automobile soit mise sur le marché, elle subit toute une série de tests qui font qu’à un moment donné, on réduit au minimum le risque de la technologie elle-même. C’est sur ça qu’on est en train d’avancer pour le moment", souligne Mathieu Michel.

Par ailleurs, Elon Musk et des centaines d'experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d'OpenAI lancé mi-mars, en évoquant "des risques majeurs pour l'humanité". Dans cette pétition parue sur le site futureoflife.org, ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d'IA, des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les "perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera".

À lire aussi

Sélectionné pour vous