USA: Google et Character.AI mettent fin à des poursuites liées à des suicides
Google et la startup Character.AI ont conclu des accords hors tribunaux pour mettre fin à des poursuites lancées par des familles accusant des robots conversationnels de nuire aux mineurs, y compris d'avoir contribué au suicide d'un adolescent, selon des documents juridiques rendus publics mercredi.
Parmi ces plaintes figure celle de Megan Garcia dont le fils de 14 ans, Sewell Setzer Jr., s'est donné la mort en février 2024 en Floride (sud-est des Etats-Unis). D'autres ont été déposées dans le Colorado, dans l'Etat de New York et au Texas.
"Les parties ont convenu d'un accord de principe dans le cadre d'une médiation pour régler tous les litiges entre elles", précise le document déposé auprès de la justice de Floride, sans donner de détail sur le contenu de leur entente.
Selon Mme Garcia, son fils était devenu émotionnellement dépendant sur la plateforme Character.AI d'un robot conversationnel inspiré de la saga littéraire et télévisée "Le Trône de Fer".
Cette plateforme permet aux utilisateurs d'interagir avec des personnages de fiction.
La mort de Sewell Setzer a été la première d'une série de signalements de suicides liés à des robots conversationnels d'IA qui se sont multipliés en 2025.
En conséquence, les entreprises développant des produits liés à l'IA générative, comme le pionnier OpenAI avec son agent ChatGPT, ont été mises sous pression en matière de sécurité et de protection des jeunes.
Google s'est retrouvé mêlé à ces poursuites à cause d'un accord de licence de 2,7 milliards de dollars passé en 2024 avec Character.AI. A cette occasion, le groupe avait également embauché les deux fondateurs de la plateforme, Noam Shazeer et Daniel De Freitas.
Sollicités par l'AFP, un porte-parole de Character.AI s'est refusé à tout commentaire et Google n'a pas répondu dans l'immédiat.
La startup avait annoncé en octobre qu'elle allait bloquer l'accès de ses chatbots aux mineurs.
"Nous pensons que c'est la décision adaptée compte tenu des questions qui ont été soulevées au sujet de la façon dont les adolescents utilisent et devraient utiliser cette nouvelle technologie", avait alors expliqué l'entreprise.
En août, les parents d'un adolescent de 16 ans qui s'est donné la mort en avril ont attaqué en justice OpenAI, reprochant à son assistant ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste.
L'agence américaine de protection des consommateurs, la FTC, a indiqué début septembre avoir ouvert une enquête sur les chatbots utilisés comme des compagnons d'intelligence artificielle générative.
F.Braun--VZ