La traducción automática tradicional se basaba en sistemas que igualaban palabra por palabra, pero esta aproximación deja fuera aspectos esenciales del lenguaje humano. La Traducción Automática Neuronal (NMT) basada en arquitecturas tipo 'transformer' ha logrado traducciones más coherentes y naturales desde 2016. Los modelos de lenguaje tipo LLMs han demostrado mejores resultados en tareas como traducir chistes o juegos de palabras. La investigación actual busca desarrollar sistemas multi-agente conscientes del contexto y bases de datos de modismos como IdiomKB para mejorar la traducción. La colaboración entre traductores humanos y IA es la estrategia más efectiva para lograr traducciones culturalmente fieles. Los avances en IA contextual están marcando el fin de la traducción literal como la conocíamos.