
Sergey Brin, cofundador de Google, sugiere que los modelos de IA pueden rendir mejor cuando se les amenaza. Esto se basa en su experiencia y en la práctica de prompt engineering, que busca optimizar las peticiones hechas a un modelo de IA. Sin embargo, expertos como Daniel Kang señalan que los estudios sistemáticos ofrecen resultados mixtos y recomiendan confiar más en experimentos controlados que en la intuición. Los modelos de IA, como ChatGPT, Claude o Gemini, son esencialmente 'loros estocásticos' que repiten patrones lingüísticos aprendidos del entrenamiento. La sugerencia de Brin plantea varios problemas, como vulnerabilidades de seguridad y comportamientos emergentes no deseados.