Los investigadores de Google DeepMind han trabajado en un documento de 108 páginas que muestra los riesgos de desarrollar la AGI, incluyendo el mal uso de la IA, la desalineación, los errores y los riesgos estructurales. Se espera que la AGI pueda aparecer en 2030, y los investigadores sugieren implementar protocolos de seguridad avanzados y supervisión para evitar estos riesgos. La AGI podría destruir a la humanidad si no se controla adecuadamente, y se necesitan medidas de protección adicionales para asegurarse de que lo aprendido sea seguro.