Un equipo de investigadores de la Universidad de California en San Diego puso a prueba el modelo GPT-4.5 de OpenAI, que logró engañar al 73% de los participantes, haciéndoles creer que estaban hablando con una persona real. El test de Turing, propuesto por Alan Turing en 1950, mide la capacidad de una IA para simular el comportamiento humano. GPT-4.5 superó con creces el test, mientras que los propios humanos fueron menos efectivos a la hora de convencer de su humanidad. La IA puede imitar patrones de lenguaje humano, pero no comprende lo que dice. Esto plantea desafíos éticos, como la suplantación de identidad y la difusión de información falsa.