
La empresa Anthropic ha lanzado un programa de investigación para estudiar el bienestar de los modelos de IA, con el objetivo de anticiparse a posibles escenarios éticos. El programa, liderado por Kyle Fish, busca establecer criterios para identificar si un modelo merece consideración moral y desarrollar guías prácticas para proteger modelos que puedan llegar a ser conscientes. La investigación abarcará temas como la identificación de señales de sufrimiento o angustia artificial y la creación de sistemas más seguros. La empresa considera que hay un 15% de probabilidad de que sus modelos actuales, como Claude, tengan algún tipo de conciencia.