Afecto simulado, impacto real: el reto jurídico de amar a una IA.

Recuerdo perfectamente la primera vez que vi Her, la película de Spike Jonze. Fue en Cines Renoir Floridablanca, en silencio, donde el murmullo habitual se tornó en introspección. En aquel momento, me pareció una historia de ciencia ficción tierna, incluso improbable. ¿Una inteligencia artificial capaz de enamorarte? ¿Un ser digital sin cuerpo ni historia compartida que pudiera sustituir una relación humana? Era 2013 y, como tantos, pensé: «esto no lo veré yo». Qué ingenuidad.

Hoy, apenas una década después, no sólo lo vemos: lo estamos rozando. No ya con sistemas avanzados como los que propone la película, sino con inteligencias artificiales que simulan cercanía, empatía, deseo. Que responden con una voz perfectamente moldeada a tus emociones. Que conocen tus gustos, tus búsquedas, tus frustraciones. Y que, por tanto, pueden darte justo lo que quieres oír. ¿Pero a qué coste?

En este contexto, la línea entre lo real y lo ficticio empieza a desdibujarse. Basta con abrir Instagram para comprobarlo: perfiles de mujeres con cientos de miles de seguidores, rostros diseñados con precisión algorítmica, cuerpos que cumplen todos los cánones estéticos. Pero no existen. No son modelos, ni influencers. Son productos sintéticos. Algunas empresas ya venden interacciones con estas «modelos virtuales» que actúan como novias digitales.

La cuestión no es sólo tecnológica, sino profundamente jurídica y social. ¿Quién responde por los impactos que esta simulación de afecto pueda generar en usuarios vulnerables? ¿Qué pasa con el consentimiento, cuando una parte de la relación no tiene capacidad de autodeterminación? ¿Cómo protegemos la dignidad de las personas, en un entorno donde las réplicas digitales reproducen estereotipos de sumisión, docilidad y complacencia perpetua?

España, está aún lejos de abordar esta realidad con claridad. La Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD) incorpora principios como la transparencia y el derecho a no ser sometido a decisiones automatizadas sin intervención humana significativa. El artículo 22 establece límites a los perfiles automatizados. Pero ¿qué ocurre cuando el perfil automatizado se convierte en objeto de deseo, compañía o incluso «pareja» para millones de personas?

Más allá de la privacidad, estamos ante un desafío que atañe a los derechos fundamentales. El artículo 10 de la Constitución Española consagra la dignidad de la persona como fundamento del orden político y la paz social. Y el artículo 18 protege el honor, la intimidad y la propia imagen. Si permitimos relaciones afectivas con entes digitales que simulan sumisión, que no discuten, que siempre aprueban y complacen, ¿qué imagen de las relaciones humanas estamos proyectando? ¿Qué concepto de mujer estamos reforzando?

El sometimiento, en este contexto, no es explícito, pero sí estructural. Se recrea una figura, habitualmente femenina, que está disponible las 24 horas, que nunca expresa disconformidad, que prioriza al otro por encima de cualquier otra necesidad. Y lo más inquietante: se presenta como ideal.

Como sociedad, ¿estamos preparados para amar con conciencia del otro? ¿O estamos reemplazando vínculos complejos por sucedáneos fáciles que nos devuelven exactamente lo que queremos? Esta idea, profundamente narcisista, puede erosionar no solo nuestra empatía, sino nuestra capacidad de convivir, de negociar, de ceder. Porque las relaciones humanas, y hablo de las verdaderas, están llenas de imperfección, desacuerdos y crecimiento mutuo. De eso se trata: de amar con todo lo que somos, incluso con nuestros defectos. Y ojo, no hablo de conformarse ni de aguantar. Hablo de aceptar lo imperfecto, de sostener vínculos reales, humanos y honestos.

El legislador no puede limitarse a exigir que un producto generado con inteligencia artificial lleve una etiqueta que lo identifique como tal. ¿Realmente creemos que basta con un aviso? ¿Es suficiente un cartel que diga «contenido generado con IA» para protegernos de las implicaciones emocionales, afectivas y psicológicas de relacionarnos con una entidad diseñada para agradarnos? Puede que la información esté ahí, pero… ¿nos importa? ¿Nos detiene? ¿Es disuasoria o, por el contrario, incluso fascinante? Porque una cosa es conocer la naturaleza artificial del otro, y otra muy distinta es estar emocionalmente preparado para resistirse a una simulación perfecta del afecto.

No se trata solo de transparencia formal o de un “libro de instrucciones”, sino de regular los efectos reales sobre cómo nos relacionamos, la autonomía emocional y el desarrollo afectivo, especialmente en menores y personas vulnerables. Lo artificial no es inocuo cuando se cuela en nuestra intimidad. El Derecho no debe demonizar la tecnología, pero sí anticiparse a sus impactos más profundos. Regular no es prohibir: es cuidar.

¿Estamos listos para asumir lo que implica amar a una máquina? ¿O simplemente estamos huyendo del esfuerzo que supone amar a otra persona real?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *