por ComputerHoy
1 de julio de 2025
Queda claro que ya son millones de personas las que usan de forma diaria y varias veces en su día chatbots como ChatGPT. La inteligencia artificial se ha colado en las vidas de todos y es innegable afirma que esta herramienta de OpenAI es un auténtico tesoro para aquellos que saben bien como usarla.
El problema precisamente es este y es el de no saber realmente para qué está destinada y. por supuesto, cuáles son los peligros de volcar toda tu confianza en una máquina imperfecta.
La confianza ciega en la IA tiene trampa y a veces se inventa datos, otras veces da respuestas desactualizadas, y casi siempre responde con una seguridad que no siempre tiene un base real para estar tan segura como dice. El problema se vuelve realmente grave cuando hablamos de temas complicados como salud, dinero o asuntos legales.
Uno de los errores más comunes es usar ChatGPT para diagnosticar síntomas de salud. Puede sonar tentador, ya que si escribes tus molestias, en segundos tienes una lista de posibles causas.
Pero aquí está el peligro y al igual que ocurre con el doctor Google, la IA no es médico, no puede examinarte, ni pedirte pruebas, ni mucho menos darte un diagnóstico 100% fiable. De hecho, puede asustarte sin necesidad o, peor aún, pasarse por alto algo grave. No hace falta decir que el único lugar al que deberías acudir es la consulta de un médico humano.
El mismo consejo vale para la salud mental. ChatGPT puede darte técnicas de relajación o consejos básicos, y eso ciertamente no está del todo mal, pero no puede sustituir a un terapeuta real. No tiene empatía, no detecta señales de alarma y, si la situación es grave, puede incluso empeorar las cosas.
Dejando a un lado este tema, por otro lado está el de Hacienda o finanzas en general. Este chatbot se ha convertido en un caramelo para entender cómo funciona todo este mundo y si te quedas en preguntarle algunos aspectos técnicos todo en orden. Sin embargo, la gente siempre va más allá y si le das datos confidenciales te arriesgas a que acaben en manos de terceros.
Si encima empiezas a compartir con la herramienta de IA contratos, datos bancarios o documentos legales, ya directamente apaga y vámonos. Si no lo compartirías en un grupo de personas que no conoces o incluso entre tus amigos, tampoco lo pongas en un chatbot.
Emergencias, trampas y 'atajos' que pueden salirte muy caros
Si bien el sentido común debería estar por encima, en muchas ocasiones la emergencia o incluso la comodidad podría jugártela. Por ejemplo, están las míticas trampas en exámenes o trabajos haciendo uso de ChatGPT.
Incluso ya algunos han escalado a un nuevo nivel y es llevarlo al ámbito laboral. Según un nuevo informe, un 28% de miembros de la generación Z admite haber entregado trabajos llevados a cabo por la inteligencia artificial. Y lo han hecho como si fueran propios, sin decir ni una sola palabra sobre el tema.
Rizando el rizo, casi la mitad, un 41% tampoco tiene reparos en reconocer que si se volviese a dar la ocasión, lo haría de nuevo. Es decir, que no tiene remordimiento en absoluto.
Por otro lado, y según pone de manifiesto la investigación, pocas veces las empresas consiguen pillarles. Solo un 9% de las veces. Un 26% sí confiesa que sintió algo de culpa.
Añadir que los hombres son más propensos a utilizar la inteligencia artificial para distintas cosas relacionadas con el empleo, muy por encima de lo que sucede con las mujeres. Entre ellos, un 40% de los miembros de la generación Z lo ha hecho, mientras que en el caso de ellas, la cifra solo parece llegar a un 20%.
Resulta curioso este punto, ya que esconde bastantes razones por detrás. Una de las principales es la preocupación por la pérdida de la autenticidad y la personalidad propia en el acto de comunicar. Michelle Leivars, una coach empresarial en Londres, se posiciona como ejemplo y prefiere escribir ella misma en lugar de utilizar la IA.
Esta considera que su estilo de escritura en su web refleja su voz y personalidad, lo que considera que atrae a sus clientes y, es por este motivo, que rechaza por completo el uso de esta tecnología.Tradicionalmente, las disciplinas STEM —ciencia, tecnología, ingeniería y matemáticas— han estado dominadas por hombres, lo que ha influido en la desigual adopción de herramientas de IA.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software, Ciberseguridad