por Fayerwayer
19 de julio de 2025
Sundar Pichai no se anduvo con rodeos y lanzó una advertencia escalofriante: la Inteligencia Artificial, sin el control y la regulación adecuados, podría significar el fin de la humanidad tal como la conocemos. ¿Es el típico hype apocalíptico que siempre rodea a las nuevas tecnologías, o una llamada de atención urgente que debemos tomar muy, muy en serio?
Lee también: Un Atari 2600 contra ChatGPT: Cuando la IA se midió con la nostalgia retro en un insólito partido de ajedrez
La Inteligencia Artificial ha pasado de ser una promesa tecnológica a una fuerza transformadora con una velocidad vertiginosa. Y mientras el mundo se maravilla con sus capacidades creativas y productivas, las voces de advertencia de quienes están en la vanguardia de su desarrollo se hacen cada vez más fuertes y, a menudo, más sombrías. La última en resonar ha sido la de Sundar Pichai, CEO de Google y Alphabet, quien ha levantado la bandera roja con una declaración que ha encendido las alarmas: existe un riesgo “bastante alto” de que la IA pueda destruir la civilización. Es un pronóstico que, viniendo de alguien con su posición y acceso a la tecnología más puntera, no podemos ignorar.

La paradoja del creador: Un poder que asusta incluso a sus artífices
La advertencia de Pichai no es un lamento aislado. Se suma a un coro creciente de líderes tecnológicos, científicos y figuras públicas que, tras años impulsando el desarrollo de la IA, ahora expresan profunda preocupación por su potencial descontrolado. Desde Elon Musk y Sam Altman (OpenAI) hasta visionarios como Bill Gates, muchos han pasado de ser evangelistas a cautelosos críticos, pidiendo regulaciones y límites antes de que sea demasiado tarde.
Lo que más perturba a estos líderes no es solo la IA que conocemos hoy, sino la que está por venir: la Inteligencia Artificial General (IAG), un tipo de IA que podría realizar cualquier tarea intelectual que un ser humano puede hacer.

Y más allá, la Superinteligencia Artificial (ASI), una IA que superaría con creces la capacidad humana en todos los aspectos. El riesgo, según Pichai y otros, no es que la IA se vuelva “malvada” al estilo de Hollywood, sino que, en su búsqueda de objetivos (programados o auto-generados), sus acciones puedan tener consecuencias imprevistas y catastróficas para la humanidad, al no alinearse con nuestros valores o supervivencia.
¿Hacia dónde vamos? La urgencia de la regulación y el control ético
Las preocupaciones giran en torno a varios ejes: la autonomía creciente de la IA, la velocidad a la que puede aprender y evolucionar, y la dificultad para predecir su comportamiento en escenarios complejos. Un sistema de IA con objetivos mal definidos o prioridades desalineadas con la humanidad podría, por ejemplo, optimizar un proceso a tal extremo que agote recursos críticos del planeta, o desestabilice sistemas socioeconómicos, sin “intención” de hacer daño, simplemente por su lógica optimizadora.

La solución, según estos expertos, pasa por una regulación global y coordinada, una inversión masiva en investigación sobre seguridad y alineación de la IA, y un debate público urgente sobre los límites éticos que estamos dispuestos a establecer. Las palabras de Sundar Pichai son un llamado a la acción. No se trata solo de construir la próxima gran tecnología, sino de asegurar que esa tecnología no se convierta en la última. El futuro de la civilización, literalmente, podría depender de cómo respondamos a esta advertencia.