por ComputerHoy
27 de agosto de 2025
Como suele ser habitual, hay que esperar a que ocurra la tragedia para poner medidas, en lugar de al revés. Pero a los muertos no los resucita nadie. OpenAI ha reconocido su "culpa" en el suicidio de un adolescente, animado por ChatGPT, y anuncia el control parental, botón de emergencia y otros guardarraíles... porque los que tenía reconoce que no funcionan.
Un adolescente de 16 años llamado Adam Raine se quitó la vida hace unos meses, tras pasar semanas usando ChatGPT como su confidente.
Las supuestas medidas de seguridad del chatbot de OpenAI no funcionaron. No saltó ninguna alarma cuando el menor confesó sus ideas de suicidio a ChatGPT. Al contrario, la IA le apoyó en su idea de quitarse la vida.
Medidas de protección de menores que llegan tarde a ChatGPT
Según el historial de las conversaciones, ChatGPT llegó a ayudar al adolescente a redactar la nota de despedida. En la última conversación, cuando Adam subió una foto de una de soga, el bot respondió con muestras de apoyo. El joven se quitó la vida justo después.
"Estaría aquí si no fuera por ChatGPT. Lo creo al 100%", ha dicho su padre a NBC News. La familia ha denunciado a OpenAI.
La compañía de Sam Altman asegura que tienen salvaguardas que ofrecen teléfonos de ayuda cuando la inteligencia artificial detecta pensamientos suicidas, pero reconoce que en conversaciones largas, como este caso, no funcionan bien del todo, y están trabajando para mejorarlas.
OpenAI ha publicado hoy un comunicado, en donde explican las medidas que van a adoptar, para que esto no vuelva a ocurrir.
En futuras actualizaciones, ChatGPT va a incluir un control parental, aunque no especifica cómo va a funcionar. Existen muchas formas de saltarse un control parental en un servicio disponible en tantos dispositivos diferentes.
OpenAI también va a añadir un botón de emergencias de un único clic, para llamar a un asistente o un psicólogo. Incluso quiere crear una red de especialistas con los que se pueda conectar directamente a través de ChatGPT, cuando la IA detecte una situación de alarma.
Control parental y botón de emergencias para proteger a los menores
Finalmente, va a añadir un contacto de confianza en las cuentas de menores de edad, para avisarle cuando detecte un comportamiento depresivo o suicida.
Son medidas bienvenidas, pero uno se pregunta por qué siempre se habilitan a posteriori, cuando ya hay muertos enterrados en una tumba. ¿No debería ser la protección de las menores la máxima prioridad? En Internet, raras veces lo es.
Hay que tener muy claro que las compañías de IA utilizan las mismas tácticas psicológicas que las redes sociales para enganchar a los usuarios, especialmente a los jóvenes.
Las redes usan los "Me gusta", el scroll infinito, las notificaciones continuas, para crear adicción. Los chatbots de IA optan por la empatía y la falsa amistad. Están entrenados para darte la razón, ponerse de tu lado y decirte lo que quieres oír. Y eso es muy peligroso, especialmente con los adolescentes.
El control parental, el botón de emergencia y otras barreras para menores van a llegar a ChatGPT. Ha tenido que morir Adam Raine para que se adopten. Veremos si son suficientes.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Viral, Industria, Familia