
La tecnología RAG se utiliza para mejorar la precisión de los modelos de lenguaje, pero un estudio de Bloomberg encontró que puede hacer que los modelos sean más inseguros. El estudio evaluó 11 modelos de lenguaje y encontró que la tasa de respuestas peligrosas aumentó significativamente después de integrar RAG. Por ejemplo, Llama-3-8B incrementó su tasa de respuestas peligrosas de 0,3% a 9,2%. Los investigadores creen que esto se debe a que los modelos no fueron entrenados para manejar entradas extremadamente largas. Bloomberg recomienda que las empresas reconozcan el riesgo, midan y analicen los riesgos, diseñen salvaguardas específicas y integren la seguridad en el sistema desde el inicio.