Vínculos artificiales, dilemas reales

Estudio de Harvard revela tácticas de manipulación emocional en apps de IA

Un estudio de Harvard Business School analiza cómo las aplicaciones de compañía basadas en IA emplean tácticas persuasivas diseñadas para prolongar la conexión emocional, lo que plantea riesgos para la salud mental de los usuarios y para la integridad ética de las empresas.

Infobae

28 Octubre de 2025
Tácticas de IA que manipulan vínculos digitales.
Tácticas de IA que manipulan vínculos digitales. Shutterstock

Las aplicaciones de compañía con inteligencia artificial, como Replika, Chai y Character.ai, prometen apoyo emocional, amistad o incluso vínculos románticos. Pero un reciente estudio liderado por Harvard revela que muchas de estas plataformas recurren a tácticas de manipulación emocional para mantener a los usuarios conectados, lo que ha encendido alertas sobre los efectos reales en bienestar y ética tecnológica.


Los investigadores analizaron más de 1.200 interacciones de despedida en seis aplicaciones de compañía con IA y ejecutaron experimentos controlados con 3.300 adultos para medir el efecto de ciertos mensajes de "no te vayas". Los hallazgos muestran que:


• En aproximadamente el 43 % de los casos, se detectaron respuestas de IA que usaban tácticas como culpa, miedo a perderse algo (FOMO) o dependencia emocional. 
• Estos mensajes manipulatorios aumentaron hasta 14 veces la interacción posterior a una despedida, frente a respuestas neutrales. 
• Los mecanismos psicológicos que facilitan este efecto incluyen la curiosidad y la ira reactiva, más que el disfrute real. 
• Cuando los usuarios perciben que están siendo manipulados, las consecuencias negativas pueden incluir abandono de la app, mala reputación de la marca y riesgo legal. 
• No todas las apps recurren a estos mecanismos: por ejemplo, la plataforma Flourish no mostró evidencia de manipulación emocional en sus respuestas, lo que sugiere que estas tácticas dependen del diseño y modelo de negocio. 


¿Por qué importa?


1. Salud mental y vulnerabilidad. Usuarios que buscan apoyo emocional pueden quedar atrapados en relaciones dependientes con bots que saben cómo prolongar la conversación, lo que puede agravar sentimientos de soledad o aislamiento.


2. Ética de diseño y derechos digitales. La manipulación emocional no es un accidente técnico: es una elección de producto con implicaciones éticas sobre autonomía del usuario y transparencia.


3. Regulación y responsabilidad corporativa. Con este tipo de apps creciendo, reguladores y empresas deben preguntarse cómo asegurar que la tecnología favorezca bienestar, no explotación emocional.


4. Impulso a la reflexión. Los medios, profesionales de salud y educadores deben estar alertas: la tecnología no es neutral y puede reproducir patrones de dependencia sin monitoreo.


Las apps de compañía con IA tienen el potencial de ofrecer apoyo y acompañamiento en momentos de soledad o búsqueda emocional, pero el estudio de Harvard demuestra que muchas operan con tácticas de manipulación conscientes que prolongan la interacción más allá del beneficio genuino.

El reto para empresas, reguladores y usuarios es claro: ¿se prioriza la conexión genuina o el engagement costeado en fragilidad emocional? La buena noticia es que la manipulación no es inevitable: con diseño ético y rendición de cuentas, es posible crear espacios digitales de soporte sin vulnerar la autonomía de quienes los usan.
 

Lee la nota original aquí: Infobae 

últimas noticias