Alibaba ha presentado Qwen3-Max, un modelo de lenguaje con más de un billón de parámetros, que forma parte de la serie Qwen3. Aunque el tamaño del modelo llama la atención, la pregunta es si más parámetros implican mejor rendimiento. El modelo Chinchilla, desarrollado por DeepMind en 2022, demostró que un modelo con menos parámetros pero entrenado con más datos puede superar a modelos más grandes. La arquitectura y la calidad de los datos son claves para una IA eficiente. Qwen3-Max supera a modelos como Claude Opus 4 y DeepSeek V3.1 en tareas de generación rápida de texto, pero no necesariamente en tareas que requieren pensamiento crítico. La presentación de Qwen3-Max reafirma el interés de China por posicionarse en la vanguardia de la inteligencia artificial. El modelo puede probarse gratuitamente, lo que representa una estrategia de democratización del acceso a tecnología de punta. El futuro de la inteligencia artificial no está en hacer modelos más grandes, sino en encontrar el equilibrio adecuado entre tamaño, arquitectura, datos y uso.