En el mundo de la ciberseguridad, los bug bounty programs pagan a investigadores por reportar fallos de seguridad. Sin embargo, ha surgido un problema con la IA generando vulnerabilidades falsas. El proyecto cURL ha tenido que bloquear a usuarios que envían reportes generados por IA. Los responsables de seguridad están desarrollando estrategias para filtrar automáticamente estos reportes. Los bug bounty programs ofrecen incentivos financieros, pero la expansión de herramientas generativas ha llevado a algunos usuarios a alimentar a modelos con repositorios de código fuente para generar reportes falsos. Esto ha generado un volumen creciente de reportes falsos, que consumen tiempo de revisión y reducen la confianza en los investigadores legítimos. La IA puede ser una aliada poderosa en ciberseguridad, pero solo si se usa con criterio y bajo supervisión humana. Empresas como Google, Meta o Apple pagan entre cientos y miles de dólares por vulnerabilidades comprobadas.