Columnistas
Compañía artificial
Los sistemas de IA emocional pueden fomentar una dependencia afectiva, especialmente entre personas vulnerables, como adolescentes o adultos mayores.

22 de jul de 2025, 03:03 a. m.
Actualizado el 22 de jul de 2025, 03:03 a. m.
Actualmente, hay más personas que se sienten solas, y no porque falten conexiones, sino porque sobran pantallas. La soledad parece haberse vuelto pandemia. Según un informe de la OMS, más del 30 % de las personas adultas mayores se sienten solas de manera frecuente. En Colombia, la Encuesta Nacional de Calidad de Vida (Dane, 2023) mostró que el 40 % de los mayores de 60 años viven solos o con una única persona, y más de la mitad dicen no tener con quién hablar a diario.
En este escenario, la inteligencia artificial ha comenzado a ofrecer una respuesta tan innovadora como polémica: compañía emocional automatizada. Robots como ElliQ, diseñados para adultos mayores, o asistentes conversacionales como Replika, están siendo utilizados para reducir el aislamiento social. Un estudio de la Universidad de Auckland en 2022 encontró que los usuarios de IA con fines emocionales experimentaban una mejora subjetiva en su bienestar, similar a la obtenida en conversaciones humanas, siempre que se sintieran ‘escuchados’.
La promesa es seductora: compañía 24/7, sin juicio, con memoria perfecta y palabras siempre amables. Sin embargo, ¿estamos resolviendo la soledad… o simplemente anestesiando una señal vital que debería llevarnos a buscar conexión humana real?
Desde un punto de vista psicológico, la soledad es una emoción de alerta. Su función es empujarnos hacia la comunidad, hacia el vínculo. Pero si sustituimos esa necesidad con un algoritmo entrenado para simular empatía, corremos el riesgo de atrofiar nuestras capacidades relacionales. Como advirtió Harvard Business School, los sistemas de IA emocional pueden fomentar una dependencia afectiva, especialmente entre personas vulnerables, como adolescentes o adultos mayores.
Además, surgen inquietudes éticas y sociales. ¿Serán estos dispositivos una ayuda o una excusa para tercerizar el cuidado? ¿Van a ser los menos favorecidos los que reciban tratamiento virtual mientras los más favorecidos reciben tratamiento humano? El riesgo es que, en nombre de la eficiencia o el confort, empecemos a reemplazar lo humano por lo funcional.
Este debate no es ajeno a Colombia. Aunque el país ha dado algunos pasos importantes en este debate con regulación al respecto, la conversación de fondo sobre su impacto emocional apenas comienza. En 2019 se adoptó el Conpes de transformación digital e inteligencia artificial, y en 2022 el país acogió las recomendaciones de la Unesco sobre ética en IA. Ambos documentos proponen principios clave como transparencia, responsabilidad y equidad. Pero aún falta un desarrollo profundo sobre los usos emocionales de estas tecnologías, que cruzan fronteras invisibles entre lo funcional y lo existencial.
La IA puede ser una ayuda poderosa, una herramienta que alivie el dolor de la soledad, pero no debe convertirse en un reemplazo permanente de nuestras relaciones. El desafío no es prohibirla, sino acompañar su avance con inteligencia ética y cultural, sabiendo que lo que está en juego no es solo la innovación, sino el tipo de humanidad que queremos construir. Esto implica desde crear ‘etiquetas de transparencia emocional’ que adviertan al usuario que está interactuando con una simulación, hasta fomentar activamente programas intergeneracionales que ofrezcan una alternativa humana a la soledad tecnológica.
La pregunta no es si la IA puede acompañarnos, sino si estamos dispuestos a cederle el alma de nuestros vínculos. Porque en ese momento, quizás dejemos de ser una sociedad humana asistida por máquinas, para convertirnos en una humanidad emocionalmente delegada.