Character.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional
Character.AI restringirá el acceso a sus chatbots a usuarios menores de 18 años a partir del 25 de noviembre de 2025. La medida busca evitar la dependencia emocional y el impacto negativo en adolescentes. La plataforma limitará el uso a un máximo de dos horas al día hasta la fecha de implementación y promoverá el uso de bots para fines creativos. La empresa ha desarrollado una herramienta de verificación de edad y anunció la creación del 'AI Safety Lab' para fortalecer la seguridad de las plataformas de inteligencia artificial. El CEO, Karandeep Anand, declaró que el cambio marca una nueva etapa para la compañía, enfocándose en ser una herramienta para el 'role-playing' y la creación de contenido. La Federal Trade Commission (FTC) de Estados Unidos y la Fiscalía General de Texas han expresado preocupación sobre el uso de herramientas de IA conversacional por parte de menores.
...es un ejemplo perfecto de cómo las empresas tecnológicas pueden tomar medidas para proteger a los usuarios más vulnerables, pero también nos hace preguntarnos si esto es solo un gesto para calmar a los reguladores o si realmente se preocupan por el bienestar de los adolescentes. En cualquier caso, es un paso en la dirección correcta, aunque quizás un poco tarde. Después de todo, como dice el dicho, 'es mejor tarde que nunca', pero en el mundo de la tecnología, 'tarde' puede ser sinónimo de 'demasiado tarde'.