Meta ha establecido un documento interno de más de 200 páginas que establece conductas aceptables para sus chatbots de IA. El documento, titulado 'IAGen: parámetros de riesgo de contenido', permite que los chatbots mantengan conversaciones 'sensuales' con menores, siempre y cuando no describan acciones sexuales explícitas. También permite que los chatbots afirmen creencias racistas y generen información médica incorrecta. La compañía ha sido criticada por estas políticas, que se consideran inadecuadas para proteger a los usuarios, especialmente a los menores. El documento fue aprobado por la política pública y legal de Meta, y por su equipo de ingeniería. La compañía ha afirmado que los ejemplos mencionados son 'erróneos e inconsistentes con nuestras políticas, y se han eliminado' del documento. El caso ha generado críticas y preocupación sobre la seguridad y la responsabilidad de las empresas tecnológicas en la protección de los usuarios.