por ComputerHoy
5 de agosto de 2025
La inteligencia artificial ha venido para quedarse, también en el entorno educativo, al igual que en el laboral, pero según empresas, puede haber ciertas libertades o no a la hora de utilizar este tipo de herramientas.
Pues hay un caso muy particular que se ha viralizado en estas últimas horas en sitios como Reddit, donde un ingeniero fue sorprendido utilizando ChatGPT para escribir gran parte del código que le había encargado la empresa.
En lugar de ser despedido, la respuesta del responsable de tecnología del equipo fue bastante interesante al respecto.
Según explican, el responsable de tecnología se centró menos en el uso de la herramienta de inteligencia artificial y más en otros riesgos asociados, como la seguridad de los datos y la falta de comprensión del código generado.
No prohibieron ChatGPT, pero en su lugar decidieron establecer una política clara sobre el uso de este tipo de herramientas: “El enfoque cambió a tratar el código generado por la IA como un punto de partida, que debe ser revisado, probado y comprendido a fondo por el ingeniero, antes de integrarlo en la base de código”.
Esto se debe a que anteriormente se había descubierto que ciertos ingenieros habían compartido código prioritario con herramientas como ChatGPT, filtrándose luego esta información crítica.
Así que la decisión de este responsable de tecnología veló por la seguridad, pero también por aprovechar la productividad que ofrecen estas herramientas, sin renunciar al control ni a la comprensión profunda de este nuevo producto.
Esto coincide con muchos expertos, que señalan que el auge de la inteligencia artificial puede ser útil, pero jamás debe sustituir al pensamiento crítico ni a la experiencia humana.
Es decir, que en este caso concreto de los programadores, si bien pueden ayudarse de la inteligencia artificial para confirmar o crear cierto código, jamás debe ser creado en su totalidad siguiendo este tipo de herramientas, para no perder el control de estos códigos.
No obstante, Sam Altman, consejero delegado de OpenAI y responsable de ChatGPT, advirtió recientemente sobre los peligros de compartir datos sensibles con este tipo de herramientas.
Sobre todo comentó que no existen leyes de privacidad claras que protejan la información ingresada en este tipo de plataformas.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial