Un grupo de figuras públicas, incluyendo al príncipe Harry y Steve Bannon, se han unido para advertir sobre los peligros de la superinteligencia artificial. La superinteligencia es un sistema de IA hipotético que podría superar a la inteligencia humana en virtualmente todas las escalas. La declaración, presentada por el Instituto Future of Life, ha reunido a más de 1.300 firmantes, incluyendo a expertos en computación, científicos y figuras políticas. La declaración busca prohibir el desarrollo de la superinteligencia hasta que haya un consenso científico y respaldo público. La industria de la IA está innovando a pasos agigantados y corre hacia la superinteligencia sin salvaguardas ni regulaciones. El CEO de OpenAI, Sam Altman, ha advertido que el desarrollo de la inteligencia automática superhumana es probablemente el mayor peligro para la existencia continuada de la humanidad. La declaración incluye comentarios de personas notables en la industria de la IA, como Elon Musk y Yuval Noah Harari, quien dijo que la superinteligencia probablemente rompería el sistema operativo de la civilización humana.