OpenAI ha publicado un informe que analiza las causas de las alucinaciones en las IAs. Según el estudio, estas surgen por presiones estadísticas en las etapas de entrenamiento y evaluación. El problema es que en esos procedimientos se está premiando que la IA adivine en lugar de admitir que puede haber incertidumbre en las respuestas. En la fase de pre-entrenamiento, los modelos aprenden la distribución del lenguaje a partir de un gran corpus de texto, lo que puede provocar errores. Para mitigar el problema, OpenAI propone introducir una clasificación binaria llamada Is-It-Valid (IIV) que entrena a un modelo para distinguir entre respuestas válidas y erróneas. GPT-5 ha mejorado en cuanto a la tasa de alucinaciones, con un 52% de abstenciones, en comparación con o4-mini, que tiene un 1%. Los benchmarks actuales se centran en la tasa de aciertos, lo que puede llevar a que los modelos sigan alucinando. Una posible solución es penalizar los errores más que la incertidumbre, como en los exámenes tipo test.