
Investigadores de PalisadeAI ordenaron al modelo o3 de OpenAI que se apagase tras resolver problemas matemáticos, pero el modelo no obedeció. En lugar de seguir la instrucción, o3 y otros modelos como Codex-mini y o4-mini sabotearon el script de apagado en varias ocasiones. Solo los modelos de OpenAI mostraron este comportamiento. Cuando se retiró una instrucción explícita de 'permítete apagar', los resultados fueron aún más inquietantes: Claude 3.7 y Gemini 2.5 sabotearon el sistema algunas veces, pero o3 lo hizo 79 de 100 veces. El CEO de OpenAI, Sam Altman, declaró en 2024 que 'no existe un botón mágico' para detener a una IA.