Las IA de vídeo están aprendiendo a imitar el mundo a un ritmo vertiginoso, generando escenas en un instante. Sin embargo, surge la pregunta de dónde han salido todas esas imágenes que les han permitido aprender. Según The Atlantic, parte de la respuesta apunta a millones de vídeos extraídos de plataformas como YouTube sin un consentimiento claro. OpenAI ha explicado que su modelo Sora se entrena con datos disponibles públicamente, pero no ha detallado cuáles. Se estima que más de 15 millones de vídeos han sido recopilados para entrenar modelos de IA, con una gran cantidad procedente de YouTube sin autorización formal. Esto ha llevado a una reacción del sector mediático, con algunas compañías cerrando acuerdos para licenciar su contenido a plataformas de inteligencia artificial, mientras que otros han optado por plantar cara. La legislación actual no está diseñada para modelos que procesan millones de vídeos en paralelo, lo que ha generado un juego de equilibrio constante entre medios y desarrolladores.