OpenAI ha lanzado Sora 2, un generador de video y audio que transforma texto en clips fotorrealistas con una precisión física nunca antes vista. La aplicación móvil, actualmente en fase de invitación privada, permite a los usuarios navegar por una corriente constante de contenido generado por IA. Sin embargo, la tecnología ha generado reacciones negativas debido a la facilidad con la que se pueden falsificar pruebas visuales creíbles. Un empleado de OpenAI generó un clip estilo CCTV en el que el CEO de la compañía, Sam Altman, aparece robando una tarjeta gráfica, lo que plantea un problema grave sobre la confianza en la evidencia visual. La desconfianza en la evidencia visual puede tener consecuencias devastadoras en el contexto judicial. La empresa asegura que su sistema cuenta con mecanismos de protección, como la función 'cameo', que permite a los usuarios insertar su imagen en los videos de forma voluntaria y controlada. Sin embargo, en la práctica, estas salvaguardas parecen ser fácilmente evitables. La normalización del contenido 'slop' podría transformar profundamente nuestra relación con los medios audiovisuales. La tecnología de Sora 2 no es intrínsecamente negativa, pero exige responsabilidad por parte de las empresas como OpenAI.