por ComputerHoy
17 de julio de 2025
Hay muchos expertos que insisten una y otra vez en lo mismo: ChatGPT y otros modelos de IA no son más que herramientas, y como tal dependen del uso que se haga de las mismas. Aunque esta afirmación es incontestable, merecería matices, y bastante grandes. Uno puede usar un martillo para poner un clavo o darlo en la cabeza con él a alguien, pero no lo emplea para sustituir a sus amigos.
La inteligencia artificial es una herramienta, cierto, pero no una convencional. A nivel psicológico, entran en juego muchos factores, como advierten los propios especialistas de la mente. De hecho, estos insisten en que algunas personas ya utilizan la inteligencia artificial como un compañero emocional. ¿Es una buena idea? Podría parecerlo, pero solo hasta cierto punto.
ChatGPT, un falso compañero emocional
Hace bastante tiempo que se viene dando la voz de alerta, incluso desde antes de que ChatGPT y otros modelos de inteligencia artificial similares asomaran en el horizonte: la gente se siente sola. Parece mentira que en una época de hiperconectividad, en la que hay aplicaciones como Tinder, redes sociales y de todo esto sucede, pero la verdad es que pasa. Quizá, precisamente por ello.
¿Es posible que la digitalización que ha sufrido la sociedad sea la culpable? Hay muchos expertos que no dudan en que, desde luego, tiene bastante que ver. Y es ahí, precisamente, donde aparecen ChatGPT y la IA en general: alguien con quien comunicarse. Y no alguien cualquiera, un receptor que siempre te da la razón, se muestra amable y nunca falla.
Según The New Yorker, los modelos de inteligencia artificial son más simpáticos que la gente. Al menos esa fue la conclusión que llegaron tras una investigación en la que se preguntaba a gente a ciegas. No solo la IA mostraba más empatía en casos normales, sino también cuando se trataba de respuestas médicas. Viéndolo así, es natural que mucha gente vea en ella un alivio emocional.
Sin embargo, los psicólogos advierten, aunque en un primer momento puede resultar una ayuda, existen riesgos a medio plazo: sin ir más lejos, reforzar conductas poco saludables o autoengaños, como en el ejemplo de usuarios que buscan confirmación absoluta de ChatGPT. Por no hablar de que, a la larga, lo único que se consigue es aumentar la sensación de soledad.
La inteligencia artificial solo dice aquello que se quiere escuchar
Sustituir una relación auténtica con un ser humano por una construida en torno a la IA también tiene otro problema añadido: se pierde lo que los expertos llaman valor adaptativo. Es decir, que de alguna forma se impide que una persona pueda llevar a cabo un aprendizaje personal, que el individuo tenga un crecimiento psicológico.
Si además se tiene en cuenta que muchos chavales jóvenes, miembros de la generación Z en su mayoría, ya ven en muchos casos en ChatGPT a un amigo, el fenómeno resulta aún más preocupante. Porque, como siempre se ha dicho, más vale solo que mal acompañado. Y no parece que la IA sea un reemplazo adecuado a las relaciones humanas, aunque puede parecerlo.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial