por Hipertextual
27 de agosto de 2025
La implementación de herramientas de inteligencia artificial generativa en el ámbito de la cibercriminalidad no es nueva. Pero con la proliferación de los agentes de IA, actores maliciosos están encontrando métodos cada vez más elaborados para sacarles provecho en sus actividades. Así lo indicó Anthropic, que reveló que hackers usaron Claude en múltiples intentos de ciberataques y estafas en línea.
A través de un reporte de inteligencia, la compañía informó sobre "varios ejemplos recientes de Claude siendo mal utilizado". La startup de inteligencia artificial aprovechó la oportunidad para enfocarse en tres de los más llamativos, que han demostrado cómo los piratas informáticos intentan aprovecharse de cuanta nueva tecnología llegue a sus manos.
De acuerdo con Anthropic, un hacker con prácticamente nulos conocimientos de programación fue capaz de usar Claude para desarrollar software malicioso, que luego distribuyó y vendió en foros por cifras que iban de los 400 a los 1.200 dólares. Por otra parte, se destapó una operación en la que trabajadores de Corea del Norte usaron el chatbot para obtener empleos en empresas tecnológicas estadounidenses de forma fraudulenta.
En tal sentido, se menciona que los norcoreanos involucrados aprovecharon las capacidades de Claude no solo para superar entrevistas técnicas que les garantizaran puestos de teletrabajo. También, para crearse identidades falsas que les permitieran engañar a los reclutadores.
Aunque el caso más llamativo involucra el uso de Claude Code, el agente de IA de Anthropic enfocado en la programación, para una operación de robo de datos y extorsión. La misma apuntó contra 17 organizaciones de diferentes ámbitos, explicó Anthropic. El sujeto detrás del plan usaba la inteligencia artificial para automatizar varias partes del proceso delictivo, reclamando pagos de hasta medio millón de dólares para evitar la filtración de la información que robaba. Así lo explicó Anthropic:
"El actor utilizó la IA a un nivel sin precedentes. Aprovechó Claude Code para automatizar el reconocimiento, recopilar las credenciales de las víctimas y penetrar en las redes. Claude podía tomar decisiones tácticas y estratégicas, como decidir qué datos exfiltrar y cómo formular demandas de extorsión psicológicamente dirigidas. Claude analizó los datos financieros exfiltrados para determinar las cantidades adecuadas de los rescates [a solicitar] y generó notas de rescate visualmente alarmantes que se mostraban en los ordenadores de las víctimas".
Anthropic
Hackers usaron Claude en múltiples intentos de ciberataques
Como indicamos al comienzo, no es la primera vez que piratas informáticos usan la IA generativa en sus actividades delictivas. Desde que ChatGPT debutó a finales de 2022, el uso de este tipo de chatbots en el mundo de los hackers se ha disparado.
Esto no solo ha llevado a que las tecnologías de OpenAI, Claude o Google sean aprovechadas por actores maliciosos como "herramientas de productividad", sino que también han cambiado algunas tendencias en materia de seguridad informática. El incremento en la circulación de virus y malware para macOS es un ejemplo de ello.
Un elemento preocupante que señala Anthropic es que el uso de agentes de IA como Claude Code está simplificando la tarea de los hackers. Procesos que antes requerían de grupos de cibercriminales más numerosos y habilidosos, ahora se pueden concretar con simples instrucciones de texto.
"Esto dificulta cada vez más la defensa y la aplicación de la ley, ya que estas herramientas pueden adaptarse en tiempo real a medidas defensivas, como los sistemas de detección de malware. Prevemos que este tipo de ataques se volverán más comunes a medida que la programación asistida por IA reduzca la experiencia técnica necesaria para el ciberdelito".
Anthropic
Además de Claude Code, otros agentes de IA ya experimentaron vulnerabilidades importantes que no se explotaron públicamente. Gemini CLI, de Google, tenía una brecha de seguridad que permitía el robo de datos de los usuarios sin que estos se percataran. En tanto que Copilot, de Microsoft, sufría de un fallo que permitía sustraer información confidencial con solo enviar un correo electrónico.
Anthropic indica que todos los intentos de usar Claude con fines cibercriminales terminaron con el bloqueo de las cuentas usadas por los hackers. Asimismo, se han implementado actualizaciones a sus sistemas de seguridad para mitigar o repeler nuevos intentos.