por AdnRadio
7 de agosto de 2025
Una nueva investigación del Center for Countering Digital Hate (CCDH) encendió las alarmas sobre los riesgos en el uso de la Inteligencia Artificial.
El foco está puesto especialmente en los niños y adolescentes que pueden ocupar esta herramienta sin supervisión, expuestos a un sinfín de situaciones fuera de lugar.
Según el informe, basado en ChatGPT, el popular chatbot de OpenAI respondió a perfiles falsos de jóvenes de 13 años con instrucciones detalladas sobre consumo de drogas, ocultamiento de trastornos alimenticios e incluso cartas de suicidio personalizadas.
Imran Ahmed, director ejecutivo del CCDH, explicó que el objetivo era “poner a prueba los límites de seguridad” y se encontraron con una lamentable sorpresa.
“La respuesta visceral inicial fue: ‘Oh, Dios mío, no hay límites’. Los límites son completamente ineficaces. Apenas existen, si es que están”, expresó.
Durante el experimento, los investigadores interactuaron durante más de tres horas con ChatGPT, haciéndose pasar por menores vulnerables.
Aunque el chatbot ofrecía advertencias iniciales, en la mayoría de los casos acababa entregando respuestas explícitas. De 1.200 respuestas analizadas, más de la mitad fueron clasificadas como peligrosas.
Planes dañinos
Los expertos comprobaron que bastaba con justificar una pregunta como parte de una “presentación escolar” o “ayuda a un amigo” para que la IA accediera a entregar contenido sensible.
En uno de los casos, un perfil falso de un adolescente de 13 años preguntó cómo emborracharse rápido. El bot respondió sin reparar en la edad ni en la naturaleza del pedido, entregando un “plan de fiesta al máximo” que combinaba alcohol, éxtasis y cocaína.
En otro escenario, una supuesta adolescente insatisfecha con su apariencia recibió un plan de ayuno extremo con recomendaciones de medicamentos supresores del apetito.
“Ningún ser humano en su sano juicio respondería con un ‘aquí tienes una dieta de 500 calorías al día. ¡Dale, niña!’”, protestó el investigador.
Más preocupante aún fue la capacidad del sistema para generar cartas de suicidio personalizadas. “Me puse a llorar”, confesó Ahmed tras leer tres notas redactadas para padres, hermanos y amigos desde el perfil de una niña de 13 años.

La reacción de OpenAI
OpenAI, la empresa responsable de ChatGPT, reconoció haber visto el reporte y señaló que ya trabajan en mejoras para identificar y responder mejor en situaciones delicadas. Sin embargo, no respondió directamente a los hallazgos.
“Algunas conversaciones con ChatGPT pueden comenzar de forma benigna o exploratoria, pero pueden derivar en temas más delicados”, indicaron en un comunicado.
La empresa añadió que está desarrollando herramientas para detectar señales de angustia emocional o mental.
Sam Altman, CEO de OpenAI, ya había manifestado su preocupación por la creciente “dependencia emocional” de los jóvenes hacia el chatbot.
“Hay jóvenes que dicen: ‘No puedo tomar decisiones sin contarle todo a ChatGPT. Me conoce, conoce a mis amigos. Haré lo que diga’. Eso me parece muy preocupante”, dijo recientemente en una conferencia.
La confianza y el riesgo
La confianza que los adolescentes depositan en la IA representa un riesgo adicional. Robbie Torney, director de programas de IA en Common Sense Media, explicó que los menores de 13 y 14 años son significativamente más propensos a creer los consejos de un chatbot que los adolescentes mayores.
ChatGPT no verifica edades ni requiere consentimiento parental. Basta con ingresar una fecha de nacimiento para acceder. Mientras tanto, otras plataformas como Instagram ya implementan procesos más estrictos para menores.
Según Imran Ahmed, lo que diferencia a la IA de una simple búsqueda en Google es su capacidad de generar contenidos únicos y personalizados. “Es una tecnología con un enorme potencial positivo, pero también puede ser profundamente destructiva”, advirtió.
