El MIT ha desarrollado una técnica llamada SEAL que permite a un modelo de IA mejorar a sí mismo sin intervención humana. Esto ha generado comentarios de preocupación en redes sociales, pero expertos como Yann LeCun, jefe de IA en Meta, afirman que no hay motivos para creer que la IA sea una amenaza para la humanidad. La técnica SEAL utiliza un bucle de auto-refuerzo en tres pasos para generar datos de entrenamiento y mejorar el rendimiento del modelo. Otros modelos como AlphaGo ya habían demostrado la capacidad de la IA para mejorar a sí misma, y en 2017, AlphaGo Zero logró vencer a los mejores jugadores humanos de Go después de solo 70 horas de entrenamiento. La versión Sonnet 4.5 de Claude también ha demostrado ser capaz de darse cuenta cuando está siendo evaluada, pero esto no supone un riesgo para la seguridad. En resumen, la IA que se mejora a sí misma es una realidad, pero no necesariamente una amenaza para la humanidad. El equipo de investigación del MIT ha logrado desarrollar una técnica que permite a la IA mejorar a sí misma de manera autónoma, lo que podría ser un paso hacia modelos más autónomos y menos dependientes de la intervención humana.