Anthropic, la empresa detrás de Claude, ha anunciado un cambio en su política de privacidad. A partir del 28 de septiembre de 2025, los usuarios de los planes Free, Pro y Max deberán aceptar o rechazar explícitamente que sus conversaciones se utilicen para el entrenamiento de futuros modelos de lenguaje. La empresa justifica este cambio argumentando que los datos son la materia prima de la IA y que las interacciones reales ofrecen señales valiosas para mejorar capacidades como el razonamiento o la corrección de código. Los servicios sujetos a términos comerciales, como Claude for Work, Claude Gov, Claude for Education, o el acceso mediante API a través de terceros como Amazon Bedrock o Vertex AI de Google Cloud, quedan fuera de esta modificación. La nueva configuración solo se aplicará a chats y sesiones de código iniciados o retomados después de aceptar las condiciones. Las conversaciones antiguas sin actividad adicional no se utilizarán para entrenar modelos. Anthropic ha ampliado el periodo de retención para los datos compartidos con fines de mejora a cinco años si el usuario acepta participar, frente a los 30 días que rigen si no se activa esa opción.