OpenAI anunció que introducirá verificación de edad y controles parentales para redirigir a menores de 18 años a versiones más seguras de ChatGPT, con filtros contra contenido violento o sexual. En algunos países incluso podría requerirse el uso de documentos oficiales para verificar la edad.
Aunque estas medidas suenan prometedoras, expertos advierten que la “seguridad” tecnológica no está garantizada y que muchas de las propuestas son superficiales ante los riesgos reales.
Qué se planea hacer (según OpenAI)
-
Redirección de usuarios menores a una versión con mayores restricciones (menos contenido riesgoso).
-
Controles parentales que permiten:
• Bloquear que los datos de los menores sean usados para entrenar el modelo
• Desactivar la memoria del chatbot.
• Establecer “horas de silencio”, limitar interacciones a texto o evitar voz/imágenes -
En casos críticos (por ejemplo, indicios de pensamientos suicidas), el sistema podría alertar a los padres o autoridades.
Las críticas que no se pueden ignorar
-
Privacidad en riesgo
Expertos como Riana Pfefferkorn advierten que exigir identificación o escaneo facial puede erosionar la privacidad de los menores, al tiempo que no garantiza seguridad real. -
Medidas limitadas o fácilmente evadibles
Los filtros y controles parentales pueden ser burlados, y es difícil asegurar que los menores no usen versiones “comunes” del sistema. -
Dicotomía entre privacidad y protección
OpenAI dice que no compartirá registros completos, solo fragmentos en situaciones críticas. Pero esto genera dudas: ¿quién decide qué es crítico? ¿y si pasa algo fuera de esos criterios? -
Responsabilidad compartida
Algunos expertos sostienen que no basta con que la plataforma implemente controles: los padres también deben participar activamente en la educación digital. -
Límites tecnológicos y legales
Verificar edad digitalmente es un desafío: estimar la edad por lenguaje es impreciso, y las leyes de privacidad varían entre países.


