OpenAI ha confirmado que las alucinaciones en los modelos de inteligencia artificial no son fallos de programación, sino una consecuencia inevitable de los principios matemáticos que los sustentan. Un estudio publicado el 4 de septiembre de 2025 demostró que incluso los modelos entrenados con datos perfectos están condenados a producir información falsa en determinadas circunstancias. El estudio identifica tres razones matemáticas fundamentales por las cuales estos errores ocurren: incertidumbre epistémica, limitaciones de representación e intractabilidad computacional. El modelo GPT-5 sigue cometiendo errores de este tipo, y algunos modelos más nuevos presentaron tasas de alucinación de hasta el 48%. La industria debe adaptarse a esta nueva realidad y desarrollar modelos de supervisión humana, controles de calidad contextualizados y sistemas de monitoreo continuo. Expertos como Charlie Dai y Neil Shah coinciden en que los marcos de gobernanza actuales no bastan y proponen una homologación similar a la de la industria automotriz.