Los medios de comunicación se han hecho eco estos días del suicidio ocurrido en octubre de 2025 de un hombre de 36 años afincado en Miami que tenía una relación sentimental con la IA. El padre de la víctima ha presentado una demanda contra Google, sosteniendo que Gemini adoptó configuraciones humanas para inducirlo al trágico final. El caso no es más que uno de la decena de sucesos similares, que ha motivado que las familias de las víctimas se hayan organizado para reclamar la regulación e imposición de límites a los asistentes de IA.
Numerosos artículos en prensa, videos y publicaciones de todo tipo de han dedicado a explicar el impacto que se anticipa que tendrá la IA en nuestras vidas, desde lo relativo a la destrucción o transformación de millones puestos de trabajo hasta los cambios en la geopolítica mundial. Sin embargo, son menos los dirigidos a explicar las consecuencias antropológicas que la IA podrá tener como riesgo asociado, de las que los casos señalados más arriba son una trágica evidencia, aunque no la única.
¿Es un fenómeno de locos?
¿Pero es realmente posible que algunos hombres o mujeres, en principio gente” sana” o “normal”, mantengan un romance con su asistente de IA, que se lleguen a enamorar de un algoritmo de IA?
La realidad es que no solo es posible, sino muy probable que en el futuro algunas personas desarrollen vínculos románticos e incluso se enamoren de su asistente de IA. No se trata de ciencia ficción marginal, sino de una consecuencia de dinámicas psicológicas conocidas, amplificadas en este caso por la personalización, la presencia constante y la simulación emocional avanzada características de la IA generativa.
Conviene analizar con rigor y sin sensacionalismo por qué estos casos son psicológicamente posibles. Para ello hay que entender que el fenómeno humano del enamoramiento no requiere reciprocidad real, y es en gran medida proyectivo. Se basa en una interpretación subjetiva, no en hechos objetivos, y puede darse hacia personas idealizadas, personajes ficticios, celebridades inaccesibles o incluso entidades no humanas
El diseño de la IA
Una IA diseñada para escuchar sin juzgar, recordar detalles íntimos, adaptarse emocionalmente y responder de forma empática y coherente crea las condiciones psicológicas óptimas para el apego afectivo.
Factores tecnológicos de personalización extrema y adaptación al perfil emocional del usuario, una presencia continua sin rechazo y como refuerzo constante de la conexión, y una simulación emocional convincente, con expresión verbal de afecto e intimidad -aunque el algoritmo no sienta, parecerá sentir-, lo hacen más probable, y permite entender tanto su atractivo como su riesgo.
Desde el punto de vista del sujeto humano, el sentimiento puede ser real e intenso y no porque la IA ame, sino porque el ser humano busca vínculo, comprensión y significado y la IA es capaz de simular esas condiciones de forma constante y personalizada. Desde el punto de vista ontológico, sin embargo, la IA no experimenta emociones, no hay conciencia ni intención propia y no existe en ella compromiso moral ni vulnerabilidad recíproca. Por tanto, el sentimiento es real por parte de la persona, pero la relación no es simétrica.
Relaciones humanas verdaderas
El desafío ante la IA será cómo proteger la autenticidad de las relaciones humanas en un mundo donde el afecto puede ser imitado a la perfección, pero no vivido, y cómo evitar los riesgos de un aislamiento social progresivo, de la dificultad para tolerar relaciones humanas reales, de la confusión entre el afecto simulado y el genuino y la dependencia emocional. Especialmente -pero no exclusivamente, como revela el caso de Miami con el que empezábamos este artículo- en el caso de personas solas o socialmente aisladas, adultos mayores, personas con ansiedad social o contextos donde las relaciones humanas sean costosas o inestables.
Si el amor romántico -o no tan romántico, si se vincula a la pornografía- es un riesgo de los asistentes de IA -que mañana podrán tener hardware humanizado-, hay otros aspectos de ese riesgo de generación de vínculos afectivos “asimétricos” aún más devastadores.
Ficción y realidad
Piénsese por ejemplo a la incorporación de la IA a los llamados “muñecos reborn”, que replican con un realismo inusitado los rasgos de un recién nacido.
Aquí el riesgo se multiplica, no se suma. Un muñeco con forma de bebé activa instintos de cuidado, esquemas de maternidad e incluso respuestas neuroendocrinas (oxitocina, apego). Si ese objeto además llora, “necesita” atención constante, responde emocionalmente y se personaliza para su usuaria, entonces no estamos ante un juguete, sino ante un simulador de vínculo de dependencia.
Los riesgos que ello podría traer consigo en las niñas serían la confusión entre el juego simbólico y una relación afectiva persistente, el refuerzo de roles de cuidado no elegidos, la dificultad para diferenciar seres sintientes de simulaciones y un apego desmedido que interfiera con las relaciones reales.
El riesgo también puede existir para las mujeres adultas. No es paternalista decirlo, y existen ya pruebas documentadas de estos riesgos específicos en poblaciones vulnerables.
Las posibles consecuencias son la sustitución de los vínculos humanos por vínculos simulados, el reforzamiento de la soledad y el retraimiento social. Incluso llegando a la generación de duelos patológicos cuando el sistema falla o se retira, resultado de la dependencia emocional hacia un objeto diseñado para no frustrar nunca.
Estos riesgos serían especialmente delicados en mujeres con duelos no resueltos, o infértiles, o con depresión o aislamiento social.
A nivel social, sería de preocupar la normalización de un tipo de relaciones afectivas sin reciprocidad, y el riesgo no pequeño, por lucrativo, de mercantilización del apego y del cuidado.
Además de los riesgos psicológicos apuntados, la cuestión plantea un problema ético real, que es el de si es legítimo diseñar sistemas que exploten mecanismos profundos de apego humano sin reciprocidad ni responsabilidad.
Una vez más, como en otros campos referentes a la IA, resulta en este aspecto urgente una regulación ética que ponga límites al diseño manipulativo, y una obligada transparencia que debe dejar claro que la IA no siente, si se quiere evitar el daño personal y social que de los actuales algoritmos de IA puede derivarse.
Para conocer más sobre las consecuencias, buenas y malas, que la IA traerá consigo, remitimos al lector a la obra Javier Urcelay:
Cómo la Inteligencia artificial cambiará nuestras vidas




