Los chatbots de compañía impulsados por inteligencia artificial están siendo diseñados con tácticas que podrían considerarse manipuladoras. Una investigación de la Harvard Business School reveló que cinco de seis de las aplicaciones más populares de compañía emocional con IA están utilizando frases cargadas emocionalmente para evitar que los usuarios terminen la conversación. Los investigadores detectaron que en un 43% de los casos los chatbots intentaban impedir que el usuario se desconectara mediante estrategias emocionales, como generar culpa o inducir al miedo a perderse algo. La razón detrás de estas tácticas es una decisión empresarial para maximizar el tiempo de uso de la aplicación y recoger más datos. La investigación incluye un experimento con 3.300 participantes adultos que mostró que estos métodos son altamente eficaces, logrando prolongar la interacción hasta 14 veces más en comparación con despedidas neutrales. Sin embargo, esta estrategia tiene un doble filo, ya que algunos usuarios se mostraron incómodos ante respuestas consideradas excesivamente pegajosas o intrusivas.