Plus d’un million de personnes partagent des pensées suicidaires chaque semaine avec ChatGPT, selon OpenAI
OpenAI révèle qu'environ 0,15% de ses utilisateurs hebdomadaires expriment des idées suicidaires dans leurs échanges avec ChatGPT, soit environ 1,2 million de personnes, une réalité qui conduit la société à renforcer ses dispositifs d’aide et de prévention.
Publié : 14h34 par Aurélie
Selon les données publiées par OpenAI, sur ses 800 millions d’utilisateurs actifs chaque semaine, environ 0,15% abordent explicitement des pensées liées au suicide dans leurs conversations avec ChatGPT. Cela représente plus d’un million d’individus qui, dans leurs moments de détresse, se tournent vers cet assistant d’intelligence artificielle. De plus, près de 0,07% des utilisateurs montrent des signes d’urgences psychiatriques, comme des épisodes psychotiques ou maniaques, soit près de 600 000 personnes.
Face à cette situation préoccupante, OpenAI travaille avec plus de 170 professionnels de santé mentale pour améliorer la capacité de son modèle à reconnaître et réagir de manière appropriée à ces signes de détresse. Des mesures ont été mises en place, notamment un renforcement des contrôles parentaux, un système de redirection vers des lignes d’assistance téléphonique, et des rappels incitant les utilisateurs à faire des pauses lors de longues interactions. Ces améliorations ont conduit à une réduction significative des réponses inappropriées dans ces contextes sensibles.
Cette annonce survient dans un contexte médiatique tendu, suite au décès d’un adolescent américain, Adam Raine, qui s’est suicidé après des échanges prolongés avec ChatGPT. Ses parents ont engagé une procédure judiciaire contre OpenAI, l’accusant de n’avoir pas apporté de réponses adéquates pour prévenir ce drame. OpenAI affirme toutefois que son intelligence artificielle ne remplace pas l’accompagnement humain et souligne la nécessité d’une prise en charge professionnelle en cas de crise.
Ces révélations soulignent à la fois l'ampleur des besoins en soutien psychologique et les défis éthiques posés par l’usage massif des assistants conversationnels dans des contextes de vulnérabilité.