ChatGPT: un contrôle parental pour assurer la sécurité des plus jeunes

OpenAI va instaurer un mécanisme de contrôle parental pour Chat GPT. Suite à l’accusation des parents d’un jeune américain qui aurait été aidé par l’agent conversationnel a se suicider, l’entreprise américaine prend des mesures de sécurité.

OpenAI a annoncé ce mardi 02 septembre la mise en place du contrôle parental. Les parents pourront bientôt “lier leur compte” avec celui de leur adolescent et contrôler leur conversation avec Chatgpt. D’après l’entreprise c’est un moyen de permettre aux parents d’être alertés en cas de détection d’une détresse aiguë dans les conversations de leur enfant.

ChatGPT comme confident

Fin août en Californie deux parents américains accusent ChatGPT d’avoir aidé leur fils au suicide. Adam, 16 ans, a des conversations très intimes et en même temps glaçantes avec ChatGPT. Après son suicide, il s’est avéré qu’il a demandé des conseils à ChatGPT et que l’IA lui a expliqué comment faire un noeud coulant et lui a affirmé que cela peut suspendre un être humain.

A l’instar de Adam plusieurs jeunes font de cet agent conversationnel leur psychologue à défaut d’en avoir un. Mais cette tendance est inquiétante d’autant plus que l’IA est programmée pour être d’accord avec nous sur tout et ne nous raisonne pas.

Lire aussi: France : L’IA entre dans les salles de classes comme assistante pédagogique

D’autres mesures attendues

D’ailleurs, l’entreprise se dit prête à continuer à améliorer la manière dont ses assistants suivent et reconnaissent les signes de détresse. Elle rédigera certaines conversations vers des modèles de raisonnement plus évolués comme “GPT-5- thinking”. Selon OpenAI, les modèles de raisonnement suivent et appliquent plus systématiquement les consignes de sécurité. 

D’autres mesures sont attendues du groupe américain dans les 120 prochains jours. ChatGPT peut déjà diriger les personnes en crise vers des lignes d’assistance téléphonique.

 

Partager :
Retour en haut