por IGN España

17 de julio de 2025

Roblox ha anunciado una nueva serie de funciones de seguridad dirigidas específicamente a adolescentes de entre 13 y 17 años, incluyendo una nueva tecnología de estimación de edad que utiliza IA para adivinar la edad del usuario a partir de una selfie en vídeo que este envíe. El anuncio de hoy, 17 de julio de 2025, revela varias nuevas características que se están implementando en el juego y que, según la empresa, mejorarán la seguridad de niños y adolescentes en su plataforma.

En el centro del anuncio están las funciones específicas para adolescentes de entre 13 y 17 años, a quienes se les dará más libertad en la plataforma que a los niños menores, pero aún menos que a los adultos. Los adolescentes podrán designar "conexiones de confianza" en Roblox, con quienes podrán chatear en la plataforma sin filtros. Según la compañía, el objetivo es supervisar mejor las conversaciones que los adolescentes tienen en lugar de que sean atraídos a plataformas externas donde las conversaciones no son monitoreadas y podrían volverse inapropiadas.

Las conexiones de confianza están destinadas a establecerse entre usuarios que se conocen bien, y si un adolescente quiere designar a alguien mayor de 18 años de confianza, solo podrá hacerlo usando un escáner de código QR o un importador de contactos.

Así lo estaba haciendo Roblox anteriormente

En el pasado, Roblox había confiado en la presentación de una identificación gubernamental que verificara que los usuarios tenían más de 13 o 18 años para desbloquear ciertas funciones de chat en la plataforma. Sin embargo, ahora está implementando un método alternativo de verificación. Las personas pueden enviar un "vídeo selfie" a Roblox, y una IA determinará si cree que la persona en cuestión tiene más de 13 años analizando el vídeo contra "un gran y diverso conjunto de datos". Google comenzó a probar una función similar a principios de este año, al igual que Meta el año anterior.

Además de estos cambios, el juego también está añadiendo nuevas herramientas como controles de estado online, un modo de no molestar y controles parentales para los padres que hayan vinculado sus cuentas con la de un adolescente.

Roblox ha estado durante mucho tiempo bajo un foco incómodo debido a su manejo de la seguridad infantil. En 2018, fue noticia cuando una madre denunció que el personaje de su hija de siete años fue violentamente agredida sexualmente por otros jugadores dentro del juego, y por separado, se reportó que una niña de seis años jugando Roblox fue invitada a una "sala de sexo". En 2021, People Make Games publicó un informe sobre las formas en que el modelo de negocio del videojuego supuestamente explota el trabajo infantil. En 2022, enfrentaron una demanda en San Francisco acusándola de permitir la explotación financiera y sexual de una niña de 10 años. En 2023, fue demandada por presuntamente facilitar "un ecosistema ilegal de apuestas" y, más en general, por tener protocolos laxos de seguridad infantil que supuestamente llevaron a pérdidas financieras y a la exposición de niños a contenido para adultos. Solo el año pasado, Bloomberg publicó un informe que destacaba la presencia de depredadores sexuales a niños en la plataforma. Ese mismo año, la plataforma afirmó haber reportado más de 13.000 incidentes de explotación infantil al Centro Nacional para Niños Desaparecidos y Explotados en 2023, lo que resultó en la detención de 24 individuos que supuestamente se aprovecharon de niños a través del juego.

“La seguridad siempre ha sido la base de todo lo que hacemos en Roblox”, expresa Matt Kaufman, director de seguridad de Roblox, en un comunicado junto con las noticias de la nueva función de hoy. “Nuestro objetivo es liderar el mundo en seguridad y civismo para los juegos online. Estamos enfocados en apoyar experiencias que sean profundamente atractivas y empoderadoras para jugadores de todas las edades, mientras innovamos continuamente en la forma en que los usuarios se conectan e interactúan.”