por ComputerHoy
23 de junio de 2025
El investigador Roman Yampolskiy, una de las voces más importantes en el campo de la ciberseguridad y la IA, ha asegurado recientemente que la posibilidad de que una superinteligencia artificial acabe con la humanidad no es una teoría remota, sino una amenaza casi segura.
En sus palabras, el "p(doom)", la probabilidad de que todo termine mal, se acerca peligrosamente al 100%. Su estimación es un 99,999999%.
Mientras tanto, figuras como Elon Musk siguen advirtiendo sobre el impacto que tendrá la IA en nuestras vidas, aunque con matices diferentes. El magnate estima que hay entre un 10% y un 20% de probabilidades de que esta tecnología se vuelva en nuestra contra. No obstante, también cree que el resultado positivo podría superar al negativo, y por eso apuesta por continuar su desarrollo con cautela.
Pero Yampolskiy disiente. Para él, la situación es mucho más crítica. Como director del Laboratorio de Ciberseguridad de la Universidad de Louisville, lleva años estudiando los riesgos asociados a sistemas autónomos y superinteligentes.
Según sus conclusiones, una vez que la IA alcance la capacidad de auto-mejorarse sin control humano, la humanidad perderá su posición dominante. Y no habrá marcha atrás.
Roman Yampolskiy lanza una seria advertencia sobre la IA
Elon Musk ya ha mencionado en diversas ocasiones que el desarrollo de la inteligencia artificial es probablemente la mayor revolución tecnológica de la historia. Durante la Cumbre de la Abundancia, advirtió que el avance tan rápido de esta tecnología podría chocar con una dura realidad, la falta de electricidad suficiente para alimentar sus sistemas a gran escala.
Además, también ha planteado dudas sobre la seguridad y transparencia de modelos avanzados como GPT-4, especialmente en el marco de su demanda contra OpenAI. A su juicio, tecnologías tan potentes no deberían desarrollarse en secreto, sino estar abiertas al escrutinio público.

Generado con IA
La idea de que la IA pueda representar un peligro existencial para la humanidad ha pasado de la ciencia ficción a las mesas de debate más serias. De hecho, informes del New York Times han mostrado que muchos expertos sitúan la probabilidad de una catástrofe provocada por IA entre el 5% y el 50%. Una cifra ya inquietante de por sí, pero que para Yampolskiy se queda corta.
Él argumenta que una vez que una inteligencia artificial supere el nivel humano, controlar sus acciones será prácticamente imposible. Y a diferencia de otras tecnologías, aquí no se trata solo de limitar el daño, sino de evitar completamente su desarrollo si no se tiene la certeza de poder mantenerla bajo control.
El avance de la IA también está en el centro de una batalla geopolítica entre potencias como Estados Unidos y China. El control sobre los chips de última generación, clave para entrenar modelos avanzados de IA, ha sido motivo de restricciones de exportación por parte del gobierno estadounidense, que teme que sus rivales utilicen estas herramientas con fines militares.
Pese a los pronósticos pesimistas, Musk piensa que estamos en los tiempos más interesantes que jamás se hayan vivido, y que la IA, como su proyecto de robot humanoide Optimus, podría terminar ayudándonos. Eso sí, lo dice con humor, él espera que estos robots "sean amables con nosotros".
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Elon Musk