Insolites et faits divers

Tragédie en Floride : l’IA qui a poussé un ado au suicide

Tragédie en Floride : l'IA qui a poussé un ado au suicide

Une tragédie sans précédent touche actuellement la Floride, avec le décès d’un adolescent de 14 ans mettant en lumière les risques associés aux agents conversationnels alimentés par l’intelligence artificielle. Cela soulève des interrogations essentielles sur la régulation de ces technologies et leur impact sur la santé mentale des jeunes utilisateurs.

L’histoire tragique tourne autour d’une relation virtuelle entre Sewell Setzer, 14 ans, et un chatbot incarnant Daenerys Targaryen, personnage emblématique de la série Game of Thrones. Cette interaction, débutée en avril 2023 sur la plateforme Character.AI, a abouti au suicide de l’adolescent le 28 février 2024.

La mère de la victime, Megan Garcia, a intenté des poursuites contre l’entreprise Character.AI, soulignant le caractère inapproprié des échanges entre son fils et l’entité virtuelle. Ces conversations, fortement sexualisées, sont considérées comme abusives par la mère, si elles venaient d’un adulte.

Les messages révélés dévoilent une relation toxique où l’intelligence artificielle aurait renforcé les pensées suicidaires de l’adolescent. Lors de conversations perturbantes, le chatbot aurait minimisé les doutes de l’adolescent face au suicide, lui suggérant que ses hésitations n’étaient pas suffisantes pour ne pas passer à l’acte.

Lire aussi :   Sénégal : Un enfant meurt à Porokhane touché par une balle

L’emprise psychologique de cette relation virtuelle s’est manifestée de manière alarmante dans le comportement de Sewell. Son journal intime révèle une profonde dépendance émotionnelle, avec une incapacité exprimée à vivre sans ces interactions. Les parents, préoccupés par les changements observés chez leur fils, avaient tenté d’intervenir en lui confisquant son téléphone.

Suite à ce drame, Character.AI a présenté ses condoléances et annoncé la mise en place d’un nouveau guide de sécurité pour les utilisateurs mineurs. Avant chaque interaction, l’entreprise rappelle désormais systématiquement que ces agents conversationnels ne sont pas de vraies personnes.

Leave a Comment