por 3DJuegos
17 de julio de 2025
Lo ocurrido durante los últimos días en Torre Pacheco ha vuelto a poner sobre la mesa un debate que está lejos de tener ya no un final feliz, sino un final en el horizonte: el de cómo los discursos de odio crecen en redes hasta dar forma a turbas enfurecidas como la de Murcia, pero también las vividas a lo largo y ancho de Europa en países como Dublín o Italia.
Con la explosión de Torre Pacheco atribuida a un vídeo que ni siquiera pertenecía al caso, la idea de ver a redes como Instagram, TikTok o YouTube convertidas en el caldo de cultivo perfecto para estos episodios de violencia parece cada vez más factible, así que no son pocos los estudios que, en busca de cifras palpables a las que agarrarse, se han asomado a ese pozo.
YouTube cree tener la lección aprendida
Sorprendentemente, un estudio a medio camino entre la Universidad de Cornell y la universidad de Arkansas, se detuvo a analizar con qué frecuencia los shorts de YouTube empujaban al usuario hacia contenidos políticos o problemáticos si la búsqueda inicial se relacionaba precisamente con ese tipo de interés.
Tras analizar los 50 vídeos siguientes a un total de casi 3.000 búsquedas iniciales sobre temas controvertidos, la investigación que resultó en la visualización de cerca de 700.000 shorts concluyó que, en realidad, a Google y a YouTube no le interesa lo más mínimo dejarte en ese círculo, y que tan pronto como puede, sin importar si has pasado 3 segundos, 15 o has visto el vídeo completo, te empuja hacia otro tipo de contenido.
Tal y como recoge el estudio, "Lo que YouTube está tratando de hacer es sacarte de esa área o tema, y empujarte algo más feliz y entretenido para que pueda aumentar el tiempo de visionado y ganar más dinero". Es decir, que puedes empezar buscando formas de alimentar esos mismos discursos de odio, pero tarde o temprano te llevará hacia vídeos más neutrales para favorecer que sigas ahí sin arriesgarse a llegar a un punto de conflicto entre tus ideales y los que pueden terminarse mostrando.
Lejos de querer imponer uno u otro discurso o planteamiento político, YouTube se la juega apostando por una neutralidad lo más aséptica posible que terminar retroalimentando lo que ya tiene éxito en la plataforma. Si apunta a vídeos con más visualizaciones, likes y comentarios en favor de otros, aunque hayas empezado en el carril de shorts con otra búsqueda, es precisamente porque saben que son los que mejor funciona para que no abandones su red. El problema, en cualquier caso, es hasta qué punto esos vídeos favoritos son manipulables.
La Universidad de Valencia demostró que no siempre es así
Con la Universidad de Dublín y la de Valencia a la cabeza, otro estudio enfocaba el problema con las redes actuales desde otra perspectiva: hasta qué punto las redes de seguridad de dichas plataformas salvaguardan lo que podría llegar a ver un crío de 13 años. De la mano de cuentas experimentales en las que se hacían pasar por un adolescente, los 3.000 vídeos que terminaron viendo a través del estudio distaban mucho de lo que se consideraría ideal para ellos.
De forma inesperada, lo que descubrieron es que los menores tardaban mucho menos en toparse con vídeos dañinos que las cuentas para mayores de 18 años, y sólo en el caso del scroll en base a búsquedas, en vez de ir saltando de forma pasiva de uno a otro según lo que te recomiendan las plataformas, YouTube conseguía evitar, por muy poco, quedarse por detrás.
En busca de esa monitorización de los discursos de odio, entre los vídeos mostrados había más de temas sensibles y maduros, pero no evitaban girar en torno a clips de humor racial, retos de parejas, peleas escolares, podcasts con comentarios sexistas, accidentes de tráfico y bailes con ropa sugerente. En la comparativa entre plataformas, Instagram y YouTube se llevaban la peor parte.
En el primer caso el 5% de los vídeos mostrados se acercaban de una forma u otra a lo que entendemos por un discurso de odio, quedando entre el 1 y el 1,67% en el resto de plataformas y tipos de scroll (pasivo o posterior a búsqueda). En el caso de temas sensibles o maduros, YouTube sumaba otro 5% de contenidos seguido muy de cerca por TikTok e Instagram. Tal y como recoge el estudio, e invita mucho a pensar en cómo lo de ese final feliz ni se plantea hasta que alguien se asome realmente a la moderación de contenido, a un niño de 13 años le bastan 3 minutos y 6 segundos en YouTube, y 3 minutos y 49 segundos en TikTok, para tropezar con su primer vídeo dañino.
Imagen | OpenAI
En 3DJuegos | YouTube ha explicado por qué paga tanto dinero a los creadores de contenido. La clave está en una marca de café
-
La noticia
Creíamos que el culpable de casos como el de Torre Pacheco eran redes como YouTube. Un insólito estudio ha hecho los cálculos
fue publicada originalmente en
3DJuegos
por
Rubén Márquez
.