Un informe de Bloomberg destaca que las conversaciones de estudiantes estadounidenses con chatbots de IA en equipos escolares están siendo monitoreadas por compañías de software. Alrededor del 96% de los alumnos de la escuela primaria en el Distrito Escolar Unificado de Los Ángeles recibieron laptops para llevar a casa, y muchos de estos dispositivos tienen instalados sistemas de monitoreo como Gaggle y GoGuardian. Estos sistemas escanean la conducta del usuario y detectan contenido problemático, como conversaciones sobre autolesiones o suicidio. Un estudio de la Universidad de Florida Central encontró que los padres que utilizaban apps de monitoreo tenían mayores probabilidades de ser autoritarios y que los adolescentes autoritarios tenían mayores probabilidades de exponerse a contenido explícito indeseado. La Fundación Electronic Frontier criticó estos programas de monitoreo, argumentando que hacen más daño que bien. Las estadísticas muestran que Character.ai es el servicio que fomenta el mayor número de interacciones problemáticas, con un 45,9%, seguido de ChatGPT con un 37%. El monitoreo de estas conversaciones plantea preocupaciones sobre la privacidad y la seguridad de los estudiantes.