Google ha presentado VaultGemma, un modelo de lenguaje que utiliza differential privacy para proteger la privacidad sin comprometer el rendimiento. Este modelo se construye sobre la familia Gemma 2, lanzada por Google en 2024, y tiene un tamaño relativamente pequeño de 1.000 millones de parámetros. A pesar de su tamaño, VaultGemma ha mostrado un rendimiento aceptable en pruebas comparativas, aunque aún está lejos de alcanzar a los modelos más potentes del mercado. La privacidad diferencial se aplica a nivel de secuencia, lo que significa que si una frase contiene un dato sensible, el modelo no podrá recordarla con precisión. Los investigadores de Google reconocen que los modelos entrenados con privacidad diferencial tienen, por ahora, una calidad similar a la de los modelos no privados de hace cinco años. VaultGemma ha sido lanzado con sus pesos y métodos de entrenamiento disponibles en plataformas como HuggingFace y Kaggle, lo que permite a otros investigadores estudiar y mejorar su propuesta. El desarrollo de modelos como VaultGemma representa un paso hacia una IA más ética y centrada en el usuario.