
El nuevo modelo de IA de Meta sacó muy buena puntuación en los benchmarks. Quizás demasiado buena
Meta presentó su nuevo modelo de IA Llama 4, que obtuvo una puntuación de 1.417 puntos en LMArena, solo por debajo de Gemini 2.5 Pro Experimental con 1.439 puntos. Sin embargo, la versión disponible públicamente no coincide con la utilizada en el ranking, lo que generó sospechas de que Meta podría haber hecho trampas. El máximo responsable de la división de IA generativa en Meta, Ahmad Al-Dahle, negó rotundamente estos rumores. A pesar de esto, algunos expertos encontraron discrepancias en el rendimiento del modelo en pruebas sintéticas y convencionales.
...es un buen ejemplo de cómo la presentación de un producto puede generar más dudas que certezas. La negativa de Meta a dejar claro si su modelo de IA Llama 4 ha sido 'optimizado' para los benchmarks o no, deja un sabor agridulce en la boca del lector. La polémica generada alrededor de la presentación del modelo es un recordatorio de que, en el mundo de la tecnología, la transparencia es fundamental para generar confianza en los productos y servicios que se ofrecen.