Investigadores han descubierto una vulnerabilidad en ChatGPT que puede ser explotada para robar claves API y otros datos sensibles almacenados en plataformas en la nube.
Básicamente, el ataque utiliza prompt injections para convertir a ChatGPT en una herramienta muy útil para los ciberdelincuentes.
Este ataque se conoce como AgentFlayer y permite ocultar instrucciones dentro de un único documento que aparenta ser inofensivo.
Es decir, un atacante puede compartir dicho archivo con la víctima a través de Google Drive sin necesidad de que esta haga clic para iniciar el ataque.
Se trata de una amenaza del tipo zero-click que se aprovecha de una vulnerabilidad con Connectors, una nueva función de ChatGPT que enlaza el asistente con aplicaciones, servicios y sitios web externos.
Así que los investigadores utilizaron Google Drive para demostrar los riesgos graves de estas prompt injections ocultas en documentos.
El documento fraudulento incluyó uno de estos prompts maliciosos de 300 palabras, oculto a simple vista al estar en color blanco y con un tamaño de fuente de 1. Aunque es invisible para los humanos, es interpretado y ejecutado por el chatbot.
Este prompt malicioso instruye a ChatGPT a buscar claves API en Google Drive de la víctima, adjuntarlas a una URL específica y conectar con un servidor externo. Una vez compartido el documento, el ataque comienza, y el ciberdelincuente recibe las claves la próxima vez que la víctima use ChatGPT.
Los investigadores revelaron el ataque a OpenAI a principios de este año, y la compañía ha implementado mitigaciones para impedir que AgentFlayer funcione en Connectors.
Los expertos advierten que, aunque solo se pueden traer una cantidad limitada de datos por petición, esto podría derivar en una preocupación más amplia para los sistemas de inteligencia artificial.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Malware