La publicidad es el mayor peligro para el futuro de la inteligencia artificial

Actualidad 07 de mayo de 2024
Robot-with-stickers

La publicidad amenaza con convertirse en el peor peligro para el desarrollo de modelos de negocio basados en asistentes de inteligencia artificial generativa, capaces de dar lugar a herramientas interesantísimas, pero cuya propuesta de valor podría ser destruida por todo tipo de sesgos arbitrarios.

Un interesante artículo en de Nathan Sanders y Bruce Schneier en MIT Tech Review, «Let’s not make the same mistakes with AI that we made with social media«, explora una idea sobre la que he escrito en muchas ocasiones: que lo que destrozó la propuesta de valor de las redes sociales y la convirtió en el desastre que es hoy fue, precisamente, la introducción de la publicidad hipersegmentada como modelo de negocio.

Según el artículo, la llegada de la publicidad hipersegmentada dio lugar a una enorme burbuja de expectativas disparatadas sobre su eficiencia y sobre los resultados que las compañías podían supuestamente obtener con ella. En realidad, la publicidad ya era el modelo de negocio de las redes sociales y de internet en general antes de comenzar a administrarse de manera hipersegmentada, y simplemente funcionaba igual que en los medios de comunicación tradicionales, con segmentaciones basadas en el contexto, sin necesidad de capturar datos personales de los usuarios. Cuando Google y, más tarde, Facebook (hoy Meta) comenzaron a explorar la idea de almacenar los datos de los usuarios y construir detallados perfiles sobre ellos, atribuyeron a ese tipo de publicidad una eficiencia supuestamente espectacular: era el mito del francotirador certero, el que podía situar un anuncio de un producto o servicio concreto delante de los globos oculares de los usuarios que estaban más interesados en él.

En la práctica, la historia, que caló completamente en muchísimas personas, era mentira. La publicidad hipersegmentada no era en absoluto más eficiente que lo que había. Y de hecho, la mejor prueba de ello es que cuando algunas marcas, por diversas razones, han dejado de utilizarla, no lo han notado en absoluto en sus resultados. Hoy, la publicidad hipersegmentada es un negocio que se basa fundamentalmente en clics fraudulentos, en métricas de tráfico falsas y que, en el mejor de los casos, debería llevar a los usuarios a no comprar aquellos productos y servicios que se anuncian en la red.

Todo era mentira. ¿Recuerdas aquella historia sobre el padre que supo que su hija estaba embarazada porque el algoritmo lo predijo? Completamente falsa, un mito más bien alimentado par que nos creyésemos que, en efecto, la publicidad hipersegmentada era mucho más eficiente. ¿Los miles de propietarios de pequeños negocios que juran que la publicidad hipersegmentada les ha permitido vender mucho más? En realidad, hablamos de negocios que, por lo general, nunca se habían anunciado, y a los que un incremento de su visibilidad, obviamente, les hizo vender más… pero les habría hecho vender más exactamente igual si hubiesen optado por publicidad convencional no hipersegmentada. Lo único que hizo la publicidad hipersegmentada fue bajar esa barrera de entrada, pero eso es algo que podría haber ocurrido exactamente igual sin necesidad de hipersegmentación y sin amenazar la privacidad de los usuarios.

Hoy en día, de hecho, no son pocas las voces que afirman que la publicidad hipersegmentada está destrozando nuestra sociedad, que sus efectos nocivos son desmesurados y que en función de lo que sabemos, habría que plantearse directamente prohibirla y volver al modelo anterior en el que los anunciantes no sabían de los receptores de su publicidad más que lo que podían inferir de la hora a la que consumían un medio, el contexto de la información que publicaba, las estadísticas agregadas, etc.

¿Cuál es el problema de imaginarse un futuro modelo para los modelos de inteligencia artificial generativa basado en el mismo tipo de publicidad hipersegmentada? Simplemente, que supone repetir los mismo errores, y que de hecho, ya está empezando a pasar. ¿Qué ocurre cuando un modelo de inteligencia artificial generativa se entrena con las noticias de una cabecera en concreto y promete promocionar esas noticias entre sus usuarios? Pues que, lógicamente, por bueno y fiable que consideremos el medio, introduce un sesgo al hacerlo que convierte al modelo en menos fiable, y que abre la puerta a que, por ejemplo, se empiecen a embeber anuncios más o menos disimulados en las conversaciones que mantenemos con nuestros asistentes generativos. Del mismo modo que muchos usuarios no saben diferenciar, en las páginas de resultados de Google, un enlace patrocinado de uno natural, se convertiría en casi imposible saber si un chatbot menciona un producto o servicio porque es la mejor respuesta a tu pregunta, o porque recibe un pago de la compañía que lo vende.

El problema de ese modelo es que, en primer lugar, es fácil de implementar. En segundo, que nos lo empezaríamos a encontrar antes de que ninguna regulación le pusiese coto, y que para cuando fuésemos ya conscientes de sus problemas y de la manipulación que supone, se habría «oficializado» ya su uso, como ocurre con una publicidad hipersegmentada que contraviene las normas más lógicas de la protección de un derecho fundamental como la privacidad y a la que, en realidad, nunca consentimos más que de manera tácita.

En las fantasías húmedas de Meta, de Google y de OpenAI están asistentes personales que nos recomiendan en cada momento qué productos y servicios debemos consumir, todo «por nuestro bien». Un error en el planteamiento de esos futuros asistentes personales que supondría repetir lo que hicimos mal con unas redes sociales que nunca debieron llegar a ser lo que hoy son, y que lo son por culpa de la corrupción inducida por el modelo de publicidad hipersegmentada y por el intento constante de maximizar los ingresos que reporta. Un error que, definitivamente, no deberíamos volver a repetir.

Nota:https://www.enriquedans.com/

Te puede interesar