por ComputerHoy
25 de junio de 2025
¿Son ChatGPT y otras herramientas de inteligencia artificial reamente fiable en sus respuestas? Según una experta en el asunto, la respuesta es definitiva: no. Y en esta ocasión no se refiere, como tantas veces se ha dicho, a errores relacionados con las célebres alucinaciones de la IA. Es decir, a todas aquellas ocasiones en las que esta tecnología mete la pata sin más.
En realidad, la cuestión parece mucho más profunda. No se estaría analizando el grado de acierto de ChatGPT o una IA cualquiera a la hora de elaborar sus respuestas, sino más bien la forma en la que estás están desarrolladas. Sobre todo, cuando se trata de ideas que todo el mundo tiene en la cabeza, como la inteligencia artificial general, pero que nadie conocer a ciencia cierta.
Las inexactitudes de la IA, ¿una tecnología sin fundamentos?
No es la primera vez que un experto en inteligencia artificial pone en duda la credibilidad de la IA. Ya ha habido especialistas en la materia que han acusado a herramientas como ChatGPT de ser vagos, de mentir o de, sencillamente, no tener ni idea de lo que dicen. Sin embargo, la experta en ética Margaret Mitchell ha decidido ir un paso más allá en esta ocasión.
Así lo ha recogido el Financial Times en un reciente artículo. En opinión de Margaret Mitchell, todo el lenguaje vinculado a la inteligencia artificial resulta demasiado "vacío y sin fundamentos". El principal problema, según ella, es la forma en la que se expone esta tecnología, cada vez más popular y cotidiana en la vida de mucha gente. El error es de base, por así decirlo.
Mitchell es contundente en el asunto. Según su criterio, es necesario que la IA sea mucho más transparente, que se centre en necesidades reales y resulte mucho más rigurosa de lo que es. De lo contrario, piensa, su utilidad siempre va a estar sometida a tela de juicio. De hecho, hoy en día nadie parece ponerse de acuerdo de qué pasará con la IA de aquí a dentro de unos años.
Para aclarar aún más a lo que se refiere, Margaret Mitchell recurre a otro término muy común: el que supone la inteligencia artificial general, conocida simplemente como AGI por sus siglas en inglés. Para ella, se trata de un término que simplemente responde a intereses comerciales y "vagos". Si se estudia con detenimiento, es fácil descubrir que todo es demasiado ambiguo.
Una de las voces más críticas con respecto a la inteligencia artificial
Desde que fuera despedida de Google allá por 2021 (donde ya trabajaba en asuntos relacionados con la ética y la IA), Margaret Mitchell no ha variado ni un ápice su discurso: siempre se ha mostrado igual de crítica con sus avances. No solo por lo imprecisa que puede ser, sino porque, según ella, es incapaz de razonar verdaderamente.
Llama la atención que, aunque Mitchell lleva tiempo diciendo lo mismo, en las últimas semanas otros expertos han reincidido también en el mismo concepto: cuidado, porque la inteligencia artificial no entiende el lenguaje humano, es más un "simulador de conversaciones" que lo que a veces se vende. Y eso, creen, puede ser peligroso.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial