Investigadores de la Universidad de Northeastern analizaron estudios sobre modelos de IA para detectar depresión en redes sociales y encontraron fallas metodológicas y sesgos importantes. Solo el 28% de los estudios ajustaron correctamente los hiperparámetros y un 17% no dividió correctamente sus datos en conjuntos de entrenamiento, validación y prueba. La mayoría de los estudios se basaron en publicaciones en inglés y provenientes de usuarios en Estados Unidos y Europa, lo que limita la generalización de los resultados. Además, solo el 23% de los estudios explicaron cómo abordaron el sarcasmo, las negaciones y los dobles sentidos en sus modelos. Los investigadores sugieren que la colaboración interdisciplinaria y el trabajo con datos más diversos son clave para mejorar la fiabilidad de estos modelos. La Universidad de Northeastern utilizó una herramienta llamada PROBAST para evaluar la calidad de los modelos predictivos y encontró que muchos estudios no detallaban aspectos clave como la división de datos o los hiperparámetros utilizados.