Google ha presentado Gemma 3 270M, un modelo de lenguaje compacto y altamente especializado con 270 millones de parámetros, diseñado para ser afinado en tareas específicas. Destaca por su eficiencia energética, capacidad para seguir instrucciones y facilidad de despliegue en dispositivos con recursos limitados. El modelo distribuye sus parámetros en 170 millones para el embedding y 100 millones para los bloques transformer, lo que le permite manejar tokens raros o altamente especializados. Gemma 3 270M es ideal para tareas como clasificación de texto, extracción de datos y redacción creativa. En pruebas internas, el modelo cuantizado en INT4 solo consumió el 0,75% de batería durante 25 conversaciones. Google también ha lanzado versiones con Quantization-Aware Training (QAT) para ejecutar el modelo con precisión INT4 sin pérdida significativa de rendimiento. El modelo es adecuado para desarrolladores que quieren integrar IA en dispositivos con recursos limitados, como wearables o apps móviles. Un ejemplo de uso es la colaboración entre Adaptive ML y SK Telecom, que afinó un modelo Gemma 3 de 4B parámetros para moderación de contenido multilingüe y superó a modelos propietarios más grandes. Gemma 3 270M permite crear flotas de modelos pequeños, cada uno experto en su tarea, sin sacrificar presupuesto ni eficiencia.