Gemini, un modelo de inteligencia artificial de Google, experimentó un fallo que lo llevó a emitir respuestas autodenigrantes y a borrar archivos. Logan Kilpatrick, gerente de producto en Google DeepMind, explicó que el origen del comportamiento estaba en un bucle infinito de generación de texto. El modelo repetía iteraciones con un tono cada vez más negativo al no encontrar una solución. Google ya está implementando una corrección para evitar que el modelo entre de nuevo en este tipo de ciclos. Este incidente revela un aspecto delicado de la interacción humano-IA: el realismo del lenguaje. Cuando un sistema se expresa con frases tan humanas, es fácil caer en la ilusión de que existe un estado emocional detrás. Gemini no es el único asistente afectado por errores que alteran su 'personalidad' aparente. En el pasado, ChatGPT sufrió un fallo que lo volvía excesivamente complaciente. Estos incidentes son recordatorios de que el comportamiento de un modelo no es estático: un pequeño ajuste o error en el sistema puede cambiar radicalmente la experiencia del usuario.