Una psicotecn¨®loga revela los peligros de simular una amistad con una app: ¡°Puede crear una nueva forma de dependencia emocional¡±
Hablamos con Rosa Becerril, experta en psicolog¨ªa, inteligencia artificial y big data sobre c¨®mo est¨¢ transformando la gesti¨®n de la salud emocional tanto en empresas como en la sociedad.

Rosa Becerril es CEO de Psiconnea y pionera en psicotecnolog¨ªa, un campo que integra psicolog¨ªa, inteligencia artificial y big data para transformar la gesti¨®n de la salud emocional en las empresas y en la sociedad. En un momento donde la incertidumbre afecta a toda la sociedad, tenemos cercano el apag¨®n y lo que supuso, la pandemia, la situaci¨®n en cuanto a los conflictos armados y el momento pre b¨¦lico en todo el mundo que nos tiene mirando las noticias sin parar, la relaci¨®n entre las emociones, los v¨ªnculos humanos, o la inteligencia artificial es algo que nos puede desbordar si no lo abordamos bien.
Hablamos con ella para saber si este auge de aplicaciones basadas en inteligencia artificial que prometen desde mejorar la productividad hasta crear la ¡°pareja perfecta¡±, nos afecta de manera extrema. Se busca el piel con piel, pero como no se llega, la tecnolog¨ªa, lo que nos provoca, nos sirve.
P - ?Qu¨¦ opini¨®n le merece esta tendencia desde el punto de vista psicol¨®gico?
R - Estamos viviendo un boom de aplicaciones basadas en inteligencia artificial que prometen desde maximizar la productividad hasta ofrecer la ¡°pareja perfecta¡±. Desde el punto de vista psicol¨®gico, esta tendencia refleja una necesidad real: muchas personas est¨¢n buscando compa?¨ªa, comprensi¨®n y alivio emocional. El problema no est¨¢ en la tecnolog¨ªa en s¨ª, sino en el uso (y el prop¨®sito) con el que se dise?a.
Cuando una app simula una amistad emp¨¢tica o un v¨ªnculo afectivo sin intervenci¨®n humana, sin ¨¦tica emocional ni comprensi¨®n del contexto, corre el riesgo de ofrecer una experiencia vac¨ªa: entretiene, pero no repara. Puede incluso crear una nueva forma de dependencia emocional, especialmente en personas que ya se sienten solas o vulnerables, como muchas personas mayores o adolescentes.
Desde Psiconnea creemos que la tecnolog¨ªa emocional debe estar al servicio del bienestar real: prevenir, anticipar riesgos emocionales, personalizar el acompa?amiento y crear espacios seguros de expresi¨®n. La psicotecnolog¨ªa no naci¨® para simular afectos, sino para mejorar el acceso al cuidado emocional de forma rigurosa, ¨¦tica y humana.
El debate sobre la IA no es tecnol¨®gico, es profundamente humano. No se trata de temerle a la inteligencia artificial, sino de preguntarnos para qu¨¦ la estamos creando, qui¨¦n la dise?a y con qu¨¦ valores. El foco no debe estar en la IA como amenaza, sino en nuestras intenciones al desarrollarla. Por eso, apostamos por una IA emocionalmente ¨¦tica, que complemente sin sustituir, que acompa?e sin enga?ar, y que potencie el bienestar sin ponerlo en riesgo.
P - ?Qu¨¦ riesgos emocionales puede tener el uso de estas apps que simulan v¨ªnculos o que crean parejas ideales en funci¨®n de algoritmos?
R - Como todo en tecnolog¨ªa, el riesgo no est¨¢ en la herramienta, sino en el uso que se hace de ella y en la ¨¦tica de quienes la dise?an. Estas apps, si est¨¢n bien planteadas, pueden ser una v¨ªa real para conectar, acompa?arse y hasta encontrar el amor. De hecho, cuando nacieron las primeras aplicaciones de citas, generaban miedo y desconfianza. Hoy, para muchas personas, son una forma habitual (y positiva) de conocer a alguien.
El problema aparece cuando se usan sin conciencia, sin protecci¨®n o con una expectativa de inmediatez emocional. Igual que no das tu n¨²mero de cuenta al conocer a alguien en un bar, tampoco deber¨ªas entregar tus datos o emociones sin saber d¨®nde van ni qui¨¦n los gestiona. Hay que informarse, cuidarse, y entender que no todas las apps son iguales. Algunas est¨¢n dise?adas con criterios ¨¦ticos y cient¨ªficos; otras, no. El consejo es claro: elige bien. Y recuerda que la tecnolog¨ªa no sustituye el v¨ªnculo humano, lo puede potenciar¡ siempre que detr¨¢s haya personas responsables y con prop¨®sito.
P - ?Cree que la inteligencia artificial est¨¢ cambiando la forma en que las personas se vinculan, no solo en lo amoroso, sino tambi¨¦n en lo social y laboral?
R - La inteligencia artificial no viene a romper los v¨ªnculos humanos, viene a ofrecer nuevas formas de construirlos. Ya la estamos viendo en acci¨®n: en hospitales, en centros de salud mental, en residencias, acompa?ando a personas que est¨¢n solas en casa, facilitando la detecci¨®n temprana de estados emocionales cr¨ªticos. Y tambi¨¦n en lo cotidiano: en el trabajo, en nuestras relaciones, en c¨®mo socializamos. Si se usa con ¨¦tica y empat¨ªa, puede ser una aliada maravillosa para cuidar, acompa?ar y conectar.
El verdadero problema no es la IA. Son las personas que la crean y quienes deciden c¨®mo usarla. Si quienes la desarrollan no tienen principios ¨¦ticos o no priorizan el bienestar humano, la tecnolog¨ªa pierde su sentido. Por eso es clave entender que la IA refleja nuestros valores. Es una herramienta: ni buena ni mala por s¨ª misma. Depende de la intenci¨®n con la que se dise?e y se aplique.
La psicotecnolog¨ªa no sustituye el v¨ªnculo humano: lo anticipa, lo potencia y, en muchos casos, lo hace posible donde antes no lo hab¨ªa. Reivindiquemos la tecnolog¨ªa con prop¨®sito, con alma, con sentido. Porque cuando se combina inteligencia artificial con ¨¦tica humana, lo que se genera no es distanciamiento: es cercan¨ªa.
P - ?C¨®mo abordan el equilibrio entre el uso de la tecnolog¨ªa y la preservaci¨®n del v¨ªnculo humano aut¨¦ntico?
R - Creemos que la inteligencia artificial no debe deshumanizar, sino hacer m¨¢s humano lo humano. Nuestra tecnolog¨ªa emocional est¨¢ dise?ada y liderada por psic¨®logos, en colaboraci¨®n con tecn¨®logos e ingenieros, siempre bajo criterios cl¨ªnicos, ¨¦ticos y con supervisi¨®n constante. No automatizamos emociones: las interpretamos con responsabilidad.
Desarrollamos nuestra propia IA, no la compramos a terceros, y lo hacemos cumpliendo el c¨®digo deontol¨®gico de la psicolog¨ªa y la legislaci¨®n europea en ¨¦tica y protecci¨®n de datos. Porque para nosotras el problema no es la IA, sino c¨®mo se usa y qui¨¦n la dise?a. Cuando se construye con prop¨®sito, la IA puede ser una aliada terap¨¦utica poderosa: para acompa?ar a personas que est¨¢n solas en casa, prevenir el burnout laboral, detectar se?ales de desesperanza o incluso anticipar problemas f¨ªsicos derivados del malestar emocional, como afecciones card¨ªacas o consumos de riesgo.
Emotinet, nuestra red de apoyo emocional, permite a las personas expresar lo que sienten, detectar su estado emocional y recibir acompa?amiento sin juicios. Muchas veces, ni siquiera sabemos c¨®mo nos sentimos. Ah¨ª es donde la IA puede ayudar, no a reemplazar el v¨ªnculo humano, sino a facilitarlo, hacerlo m¨¢s accesible y personalizado. El reto es hacer IA con alma, ciencia y sentido. Y eso es lo que hacemos desde la psicotecnolog¨ªa.
P - Se habla mucho de la soledad digital. ?Cree que estas herramientas est¨¢n ayudando a combatirla o, por el contrario, podr¨ªan reforzarla?
R - La inteligencia artificial une o desune seg¨²n el prop¨®sito con el que ha sido creada. Y eso no depende de las m¨¢quinas, sino de las personas que la dise?an. La IA no nace sola: nace de decisiones humanas. Por eso, desarrollamos una IA emocional y ¨¦tica, dise?ada espec¨ªficamente para combatir la soledad, acompa?ar, empoderar y prevenir el malestar emocional que hoy afecta a millones de personas en todo el mundo.
No creemos en una tecnolog¨ªa que a¨ªsla, sino en una que conecta. Usamos la ciencia, la psicolog¨ªa y la tecnolog¨ªa para detectar a tiempo se?ales de alerta, ofrecer apoyo real y devolver a las personas el poder de entenderse y cuidarse. La soledad digital no se combate desconectando, sino utilizando la tecnolog¨ªa con sentido y prop¨®sito.
Si alguien usa la IA para manipular o generar da?o, no debemos se?alar a la IA como el problema, sino a quien la ha creado sin ¨¦tica ni responsabilidad. Por eso defendemos una IA que no solo sea legal, sino profundamente humana. Bien utilizada, es una herramienta potent¨ªsima para reducir desigualdades, fomentar el bienestar y avanzar hacia los Objetivos de Desarrollo Sostenible. La clave est¨¢ en c¨®mo y para qu¨¦ la usamos.
P - ?Qu¨¦ rol puede jugar la psicotecnolog¨ªa en fortalecer relaciones m¨¢s sanas y conscientes, en lugar de sustituirlas?
R - La psicotecnolog¨ªa permite entrenar habilidades emocionales, identificar patrones de malestar y actuar antes de que una relaci¨®n (personal o laboral) se deteriore. No reemplaza el contacto humano. Lo prepara. Lo protege. Y lo enriquece con datos que antes no estaban disponibles. Gracias a la psicotecnolog¨ªa, una persona puede entender mejor lo que siente, y desde ah¨ª, vincularse de forma m¨¢s saludable con los dem¨¢s.
P - ?Cu¨¢l es el consejo que dar¨ªa a alguien que est¨¢ tentado a buscar en una app una soluci¨®n emocional inmediata?
R - Mi consejo es que elija bien la app que va a usar. Cuando hablamos de salud emocional, hablamos de salud mental. Y eso significa que estamos hablando de algo sanitario. Igual que no todos los medicamentos que se venden por internet son seguros, tampoco lo son todas las apps. Hay que buscar aquellas que est¨¦n validadas cient¨ªficamente, que cuenten con rigor cl¨ªnico y est¨¦n dise?adas para ayudarte de verdad.
Por eso desarrollamos nuestra red social de apoyo emocional basada en ciencia, liderada por psic¨®logos y dise?ada para acompa?arte de forma segura y personalizada. Te ayuda a identificar c¨®mo te sientes, compartirlo sin juicios y avanzar, rodeado de personas que est¨¢n en un momento similar al tuyo. Porque el cambio no ocurre de golpe, pero con apoyo profesional, tecnolog¨ªa ¨¦tica y ciencia, ese clic interior se vuelve mucho m¨¢s posible.
?Tus opiniones importan! Comenta en los art¨ªculos y suscr¨ªbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de WhatsApp. ?Buscas licenciar contenido? Haz clic aqu¨ª
Rellene su nombre y apellidos para comentar
Tu opini¨®n se publicar¨¢ con nombres y apellidos