Creíamos que ningún modelo abierto podría superar a GPT-5. Una startup china demuestra que estábamos equivocados
La startup china Moonshot ha lanzado el modelo abierto Kimi K2 Thinking, con un billón de parámetros, que supera a los mejores modelos propietarios de empresas como OpenAI, Google o Anthropic. El modelo tiene 32.000 millones de parámetros activos y una arquitectura Mixture of Experts, lo que le permite mantener un uso estable de herramientas agénticas durante 200-300 llamadas secuenciales. En pruebas, Kimi K2 Thinking logra las puntuaciones más altas en Humanity's Last Exam (44,9%) y BrowserComp (60,2%), y está casi al nivel de Claude en el test de desarrollo software SWE. El modelo cuesta 4,6 millones de dólares para entrenar, en comparación con los 500 millones de dólares que cuesta entrenar a GPT-5. La API de Kimi K2 Thinking es asequible, con un costo de 0,6 dólares por millón de tokens de entrada y 2,5 dólares por millón de tokens de salida. El modelo utiliza una cuantización INT4 para mejorar su eficiencia y tiene una ventana de contexto de 256k. Alibaba está detrás del desarrollo de Kimi K2 Thinking, y el modelo es una alternativa interesante para empresas que buscan modelos de IA abiertos.
...es una bomba de información, pero ¿quién necesita saber que un modelo de IA chino puede superar a uno estadounidense? ¿Es esto el fin de la supremacía tecnológica estadounidense? Bueno, no exactamente, pero es un gran paso para la humanidad... o al menos para los inversores de Alibaba. En serio, el artículo es interesante, pero podría haber sido más conciso y menos sensacionalista. ¿Quién necesita un título que suena como una película de acción cuando se trata de modelos de IA?