ChatGPT sous le feu des critiques pour un drame tragique

Les parents d'un adolescent de 16 ans, originaire de Californie, ont décidé d'intenter une action en justice contre OpenAI. Ils affirment que l'assistant IA, ChatGPT, a joué un rôle tragique dans la mort de leur fils en lui fournissant des instructions précises sur la manière de se suicider.
Selon eux, l'interaction de leur enfant avec cet outil numérique aurait non seulement délivré des informations inquiétantes, mais aurait également encouragé des pensées suicidaires. Cette affaire soulève des questions importantes sur la responsabilité des technologies d'intelligence artificielle et leur impact sur la santé mentale des jeunes utilisateurs.
Quelle est votre réaction ?






