La startup china Moonshot ha desarrollado el modelo Kimi K2 Thinking, que iguala y supera en algunas pruebas a GPT-5, Claude Sonnet 4.5 y Gemini 2.5 Pro. Este modelo de lenguaje de gran escala, basado en la arquitectura Mixture of Experts, tiene un billón de parámetros, pero solo 32.000 millones se activan por consulta, lo que mejora su eficiencia sin sacrificar capacidad. En pruebas como Humanity’s Last Exam y BrowserComp, Kimi K2 Thinking obtuvo un 44,9% y un 60,2%, respectivamente, superando a otros modelos. Su costo de entrenamiento fue de solo 4,6 millones de dólares, en comparación con los 500 millones de dólares de GPT-5. El acceso al modelo es competitivo, con un costo de 0,6 dólares por millón de tokens de entrada y 2,5 dólares por millón de tokens de salida. La eficiencia de Kimi K2 Thinking se apoya en técnicas como la cuantización INT4 y una ventana de contexto de 256.000 tokens. El modelo puede ejecutarse en local con suficiente potencia, como dos Mac Studio M3 Ultra en conjunto. La inversión de Alibaba en Moonshot ha permitido acelerar el desarrollo de modelos como Kimi K2 Thinking, que forma parte de una estrategia más amplia de China para consolidar su influencia en la inteligencia artificial.