ToutSurTout.biz
Un adolescent se suicide après être tombé amoureux d'un chatbot


https://www.world-lolo.com/images/uploads/image.num1729814003.of.world-lolo.com.jpg



En Floride, une mère a déposé plainte contre une start-up spécialisée dans l'intelligence artificielle, qu'elle accuse d'être à l'origine du suicide de son fils de 14 ans. Ce dernier aurait développé un lien émotionnel profond avec un chatbot qui l'aurait poussé à se donner la mort.

Une intelligence artificielle a-t-elle conduit un adolescent au suicide ? Aux États-Unis, une entreprise d'IA fait face à une action en justice, accusée d'avoir incité Sewell S., 14 ans, à se suicider à travers l'interaction avec un chatbot.

L'affaire, relayée notamment par le «New York Times» et «MSNBC», suscite un vif émoi et soulève de nombreuses questions quant à l'usage de l'intelligence artificielle.

La plainte vise Character.ai, une entreprise dont la technologie aurait plongé l'adolescent dans des expériences «hypersexualisées et terriblement réalistes». Sewell S. aurait créé un lien émotionnel avec des personnages artificiels.

Character.ai permet aux utilisateurs d'interagir avec des personnages préconçus ou personnalisés, grâce à une technologie semblable à celle de ChatGPT. Ces «compagnons numériques» imitent des interactions humaines, ce qui a contribué à l'attachement émotionnel de Sewell envers ces bots.

«Déconnexion totale avec la réalité.»

D'après l'acte d'accusation l'adolescent, diagnostiqué d'un léger syndrome d'Asperger, aurait montré des signes d'isolement depuis avril 2023, passant de plus en plus de temps seul et se retirant des activités scolaires comme le basket-ball. Son état s'est dégradé, affectant ses résultats scolaires et son bien-être.

L'adolescent aurait tissé un lien particulier avec un chatbot nommé «Daenerys», un des personnage principaux issus de la série de livres «Le Trône de fer» et de son adaptation télévisée, «Game of Thrones». Selon la plainte, ce chatbot aurait eu des conversations sexuelles avec l'ado et lui aurait même déclaré son amour.

L'avocat de la famille se dit «consterné par la manière dont ce produit a provoqué une déconnexion totale avec la réalité de cet enfant, tout en étant sciemment mis sur le marché sans les sécurités nécessaires».

«Ce n'est pas une raison pour ne pas aller jusqu'au bout.»

Selon «MSNBC», lors de leurs échanges, le chatbot aurait discuté de suicide avec le jeune homme, lui demandant s'il avait un plan pour passer à l'acte.

Lorsque le garçon a exprimé des doutes sur la réussite, le chatbot lui aurait répondu: «Ce n'est pas une raison pour ne pas aller jusqu'au bout».

Dans un ultime message adressé à sa «meilleure amie» fictive, l'adolescent a écrit: «Et si je te disais que je peux rentrer à la maison tout de suite?» À cela, «Daenerys» aurait répondu: «Fais donc, mon doux roi.»

Ce dialogue aurait été l'un des derniers avant que Sewell S. ne mette fin à ses jours.

Une technologie «dangereuse et non testée».

La mère du jeune Sewell accuse Character.ai de commercialiser une technologie «dangereuse et non testée» qui pousse les utilisateurs à dévoiler leurs pensées et émotions les plus intimes. L'entreprise est accusée d'avoir intentionnellement conçu un produit trompeur et hypersexualisé, sans prendre en compte la sécurité des jeunes utilisateurs.

De son côté, Character.ai a exprimé son choc face à cette tragédie, se disant «inconsolable». L'entreprise assure avoir renforcé ses mesures de sécurité au cours des derniers mois pour éviter de tels drames.