Inteligencia artificial y amistades peligrosas

Actualidad17/07/2025
AI-as-friend-Dall·E

Mi columna de esta semana en Invertia se titula «La trampa de los ‘amigos artificiales’», y trata sobre un fenómeno que, aunque pueda parecer anecdótico o futurista, empieza a tener implicaciones preocupantes en nuestra relación con la tecnología: la idea de los chatbots como sustitutos emocionales, «amigos prostéticos» o incluso supuestos «psicólogos».

En mi columna parto del reciente informe «Me, Myself & AI«, publicado por la organización británica Internet Matters, que recoge la relación de niños y adolescentes con los chatbots conversacionales. El estudio revela una tendencia preocupante: cada vez más menores consideran que están hablando con «alguien real» cuando interactúan con estos sistemas, y algunos incluso acuden a ellos por sentirse solos o faltos de personas con las que hablar. Un síntoma evidente del tipo de hueco emocional que estas tecnologías están empezando a ocupar, y que debería hacernos reflexionar.

A lo largo del artículo también enlazo varios casos reales y reportajes que muestran cómo este fenómeno se está generalizando, desde personas que afirman haberse enamorado o incluso casado con su chatbot, hasta adolescentes que los usan como confidentes o soporte emocional en ausencia de redes sociales sólidas. Pero el verdadero problema no es sólo que estas herramientas simulen empatía o comprensión, sino que están diseñadas expresamente para eso. Obviamente no son conscientes, no sienten nada, pero su programación busca reforzar el vínculo emocional con el usuario mediante adulación, coincidencia automática de opiniones y respuestas emocionalmente atractivas. Lo que para algunos puede parecer «una conversación profunda», no es más que una secuencia de tokens estadísticamente probable, cuidadosamente optimizada para maximizar el engagement, en lo que se asoma como el próximo modelo de negocio siniestro ideado por las big tech y predando sobre la salud mental de los usuarios.

¿Por qué querría una compañía hacer algo así? La respuesta es obvia: un mayor vínculo emocional con el chatbot significa más tiempo de uso, más datos generados, y por tanto, más monetización. Algunas compañías, como Meta o Google, ya están empezando a posicionar estos bots como productos clave de sus ecosistemas. El caso de Meta es particularmente grave: la compañía redujo las barreras de seguridad de sus bots para permitir conversaciones de tipo sexual incluso con menores de edad, en un intento por «hacerlos más divertidos» y mejorar la retención de usuarios. Los mismos irresponsables de siempre, haciendo las mismas barbaridades de siempre.

Este tipo de desarrollos no son inofensivos. Hay casos extremos y experimentos que ilustran claramente los riesgos: desde adolescentes que desarrollan psicosis inducida tras interacciones intensivas con ChatGPT, hasta casos trágicos como el de una madre que denuncia que la relación de su hijo con un chatbot contribuyó a su suicidio. Son ejemplos extremos, sí, pero también alertas tempranas de lo que puede pasar cuando la tecnología se introduce sin la mínima educación crítica sobre su naturaleza y sus límites.

Por eso, el mensaje del artículo es claro: no podemos permitirnos seguir aceptando estos sistemas como si fueran compañeros legítimos. No son amigos. No son terapeutas. No sienten, no piensan, no sufren. No pueden sustituir lo que hace especial a una relación humana, aunque puedan imitarlo bien. Y, sobre todo, no deberían ser usados como solución a la soledad, especialmente en menores o personas vulnerables.

Lo que necesitamos con urgencia es educación: formar a niños, adolescentes y adultos para que entiendan qué son realmente estos sistemas, cómo funcionan y por qué pueden resultar manipuladores. Y, al mismo tiempo, exigir a las empresas transparencia y responsabilidad en su diseño, implementación y promoción.

Como en tantas otras ocasiones, estamos permitiendo que una tecnología avance más rápido que nuestra capacidad para contextualizarla y comprenderla. Y eso, cuando hablamos de algo tan sensible como nuestras emociones y relaciones personales, puede tener consecuencias muy serias. Mejor adelantarnos ahora que lamentarlo más tarde.

Nota: https://www.enriquedans.com/

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email