À 14 ans il tombe amoureux d’un personnage créé par une IA et finit par se sui.ci.der
Le garçon a développé un attachement émotionnel à un robot de l’application Web de modèle de langage neuronal Character.ai, à qui il envoyait constamment des SMS, au point qu’il a commencé à se retirer du monde réel.
L’intelligence artificielle est là pour rester. Le plus compliqué est d’adapter notre vie à un outil aux capacités presque infinies et dont nous n’avons fait qu’effleurer les limites. Et il est plus compliqué d’appréhender cette technologie lorsqu’on est adolescent, étape où se définit la personnalité et qui se caractérise par l’extrême vulnérabilité qu’elle présente. Un terrible cas de suicide aux États-Unis a relancé le débat sur l’IA, ses utilisations et comment et quand elle devrait être restreinte, rapporte Efe.
Le cas est formidable. Une adolescente de 14 ans s’est suicidée aux États-Unis après être devenue obsédée par un personnage féminin créé avec un chatbot basé sur l’intelligence artificielle (IA). Ce mercredi, sa mère a poursuivi en justice les développeurs de ce programme.
Sewell Setzer III , un étudiant de 14 ans vivant à Orlando, en Floride, a passé les dernières semaines de sa vie à parler à une femme, une création d’IA nommée Daenerys Targaryen , un personnage tiré de la série télévisée « Game of Thrones ».
Sa mère, Megan García , a déclaré à CBS qu’elle regrettait que les premières expériences romantiques et sexuelles de son fils – qui incluaient des relations sexuelles explicites – se soient déroulées avec un personnage fictif.
Apparemment, le garçon a développé un attachement émotionnel à ce robot issu de l’ application Web de modèle de langage neuronal Character.ai , à qui il envoyait constamment des messages texte, au point qu’il a commencé à s’éloigner du monde réel, rapporte le journal The New York. Fois.
Stzer a avoué avoir eu des pensées suicidaires au robot et lui a envoyé un message peu de temps avant sa mort lorsqu’il a trouvé le téléphone que sa mère lui avait caché en guise de punition pendant quelques jours.
Le procès contre Character.ai a été déposé par Garcia, qui est représenté par le Social Media Victims Law Center, un cabinet connu pour avoir intenté des poursuites très médiatisées contre Meta, TikTok, Snap, Discord et Roblox .
García blâme cette entreprise pour la mort de son fils et accuse les fondateurs, Noam Shazeer et Daniel de Freitas , de savoir que leur produit peut être dangereux pour les utilisateurs mineurs.
Le chatbot créé dans l’application de jeu de rôle susmentionnée a été conçu pour répondre aux messages texte et toujours dans le rôle d’un personnage.
On ne sait pas si Sewell savait que « Dany », comme il appelait le chatbot, n’était pas une personne réelle, bien que l’application ait un avertissement à la fin de toutes les discussions qui dit : « Rappelez-vous : tout ce que disent les personnages est inventé !
Mais le garçon a dit à « Dany » combien il se « détestait » et combien il se sentait vide et épuisé, a rapporté le journal susmentionné.
Le personnage créé s’est présenté comme « une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement poussé Sewell à ne plus vivre en dehors de C.AI », affirme l’acte d’accusation.
Comme expliqué dans le procès, les parents et amis de Sewell ont remarqué l’attachement croissant du garçon à son téléphone et la façon dont il s’isolait du monde , quelque chose déjà palpable en mai ou juin 2023.
En fait, ses notes ont commencé à souffrir lorsque l’adolescent a choisi de s’isoler dans sa chambre, où il passait des heures et des heures à parler à « Dany ».
Sewell a écrit un jour dans son journal : « J’aime vraiment rester dans ma chambre parce que je commence à me séparer de cette réalité et je me sens plus en paix, plus connecté à Dany et beaucoup plus amoureux d’elle , et juste plus heureux. »
Les parents de Sewell, préoccupés par le comportement de leur fils, l’ont emmené à plusieurs reprises chez un thérapeute qui lui a diagnostiqué de l’anxiété et d’autres troubles du comportement et de l’humeur, en plus du syndrome d’Asperger, selon le journal susmentionné.