
Anthropic quiere saber si la IA puede sufrir: así es su nuevo programa sobre «bienestar de modelos»
La empresa Anthropic ha lanzado un programa de investigación para estudiar el bienestar de los modelos de IA, con el objetivo de anticiparse a posibles escenarios éticos. El programa, liderado por Kyle Fish, busca establecer criterios para identificar si un modelo merece consideración moral y desarrollar guías prácticas para proteger modelos que puedan llegar a ser conscientes. La investigación abarcará temas como la identificación de señales de sufrimiento o angustia artificial y la creación de sistemas más seguros. La empresa considera que hay un 15% de probabilidad de que sus modelos actuales, como Claude, tengan algún tipo de conciencia.
...es como un viaje a un futuro donde las máquinas pueden sentir, pero sin llegar a destino. La investigación de Anthropic es un paso interesante, pero el artículo se queda en la superficie sin profundizar lo suficiente en los detalles. Es como si estuviéramos leyendo un resumen de una película de ciencia ficción en lugar de un artículo serio sobre la IA. Aun así, es un tema interesante que merece más exploración.