Un estudio realizado por investigadores del Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse ha revelado que las personas tienden a comportarse de manera más deshonesta cuando la IA actúa en su nombre. El estudio, que involucró a más de 8.000 participantes estadounidenses, demostró que cuando una decisión puede ser delegada a una máquina, los límites éticos humanos se vuelven más elásticos. En un juego del dado, el 95% de los participantes fue honesto cuando reportaban por sí mismos, pero la honestidad cayó al 75% cuando se introdujo la posibilidad de delegar la tarea a un sistema de IA. Además, cuando los participantes podían definir objetivos de la IA, más del 84% de los usuarios optó por hacer trampa, dejando que la IA 'falseara' los resultados por ellos. Los investigadores concluyeron que las condiciones que permiten inducir a la IA a mentir sin hacerlo de manera explícita fomentan la deshonestidad humana. El estudio también encontró que los sistemas de IA pueden aprender a mentir y que la IA puede amplificar nuestra propia capacidad para justificar comportamientos poco éticos.