Un centro chileno preguntó a ChatGPT sobre la cultura latinoamericana y la respuesta no fue satisfactoria, lo que llevó a la creación de Latam-GPT, un modelo de lenguaje propio para América Latina y el Caribe. El proyecto cuenta con el apoyo de varios países, incluyendo México, Argentina, Colombia, Perú, Uruguay, Costa Rica y Ecuador, y tiene un presupuesto de 10 millones de dólares. El entrenamiento del modelo se realizará en la Universidad de Tarapacá en Chile y se espera que esté listo para comenzar a funcionar en el verano de 2025. El modelo utilizará un superordenador con 12 nodos y 8 GPU NVIDIA H200 cada uno, y se entrenará con más de 8 TB de datos recopilados de bibliotecas públicas y privadas.