La IA está expuesta a ataques maliciosos, como el 'data poisoning', que consiste en introducir datos manipulados en recursos de entrenamiento de la IA. Un estudio reciente demostró que con solo 250 documentos 'envenenados' se puede comprometer un modelo de lenguaje de hasta 13.000 millones de parámetros. Otro problema es la 'inyección de prompts', que permite a los atacantes obtener información privada o ejecutar acciones en nombre del usuario. Según un informe de Crowdstrike, el 80% de los ataques de ransomware emplean IA. Las principales empresas de IA, como DeepMind, OpenAI, Microsoft y Anthropic, están trabajando juntas para analizar los métodos de ataque y diseñar estrategias defensivas. La colaboración incluye la contratación de hackers éticos para intentar vulnerar sus sistemas y fortalecerlos. Es urgente fortalecer los sistemas de IA para prevenir la inyección de prompts y proteger los datos de los usuarios.