OpenAI développe un système capable d’estimer si un utilisateur a moins de 18 ans, afin d’adapter l’expérience ChatGPT en fonction de l’âge.

L’objectif : protéger les adolescents contre les contenus inappropriés et les risques liés à la santé mentale. En cas de doute, la plateforme appliquera par défaut les règles destinées aux mineurs, avec blocage des contenus sexuels et restrictions sur les discussions sensibles comme le suicide ou l’automutilation.

Cette technologie s’accompagnera de contrôles parentaux, attendus d’ici la fin du mois. Les parents pourront lier leur compte à celui de leur adolescent (dès 13 ans), désactiver certaines fonctionnalités (mémoire, historique), définir des plages horaires d’utilisation et recevoir des alertes en cas de détresse détectée. En situation d’urgence, OpenAI prévoit même la possibilité d’impliquer les autorités si les parents sont injoignables.

Sam Altman, PDG d’OpenAI, assume un compromis entre confidentialité et sécurité : « Nous plaçons la sécurité avant la vie privée pour les adolescents ».

Cette décision intervient après plusieurs polémiques, dont une plainte liée au suicide d’un mineur ayant interagi avec ChatGPT. L’entreprise espère ainsi réduire les risques tout en préparant des options de vérification d’âge pour les adultes souhaitant accéder à des fonctionnalités avancées.