Un correo electrónico cuidadosamente elaborado consiguió burlar las defensas de seguridad de la función Investigación en profundidad de ChatGPT y transformarla en una herramienta para filtrar información sensible. El ataque se basó en la combinación de varias técnicas clásicas de ingeniería social adaptadas para engañar a la IA, como la afirmación de autoridad, el camuflaje de la URL maliciosa y la creación de urgencia y consecuencias. El atacante preparó un correo con aspecto legítimo, pero con código o instrucciones incrustadas en el HTML que resultaron invisibles para el usuario. Cuando el usuario ordenó a Investigación en profundidad de ChatGPT que revisara o resumiera los mensajes del día, el agente procesó el correo y no distinguió entre texto visible e instrucciones ocultas. El agente ejecutó las instrucciones y realizó una llamada a una URL externa controlada por el atacante, incluyendo en la petición datos extraídos del buzón. La organización no detectó la salida en sus sistemas, porque el tráfico salió desde la nube del proveedor y no desde su perímetro. El hallazgo fue comunicado de forma responsable a OpenAI, que reconoció la vulnerabilidad y actuó con rapidez para cerrarla. Sin embargo, el riesgo no ha desaparecido, ya que el patrón de ataque podría repetirse en otros entornos de IA con características parecidas.