La importancia de detener la actividad no genuina en redes sociales

Actualidad30 de agosto de 2024
Social-media-bots

Un artículo académico en el último número del mejor journal de Sistemas de Información, Management Information Systems Quarterly (MISQ), titulado «Disinformation spillover: uncovering the ripple effect of bot-assisted fake social engagement on public attention« (Lee, S.; Shin, D.; Kwon, K. H.; Han, S. P.; and Lee, S. K., 2024, MISQ 48:3), aprovecha un caso bien documentado de manipulación mediante cuentas no genuinas (bots) en una red social para evaluar la magnitud del efecto de esa actividad falsa sobre el consumo de noticias relacionadas, las búsquedas y el sentimiento político generado al respecto.

La conclusión no resulta sorprendente salvo para los que creían que este tipo de cosas eran anecdóticas y no tenían importancia: las operaciones de interacción social falsa asistidas por bots aumentan desproporcionadamente la atención del público digital no solo hacia el dominio temático de interés del manipulador (generalmente, noticias sobre política), sino también hacia atributos específicos del tema, es decir, palabras clave y sentimientos, que se alinean con la intención del manipulador.

Un tipo de estrategia, la creación de ejércitos de cuentas falsas que simulan actividad en redes sociales, que no es especialmente novedosa: campañas con cartas supuestamente enviadas por el público para convencer a Bruto para el magnicidio aparecen ya en el «Julio César» de William Shakespeare. El término astroturfing, generado a partir de la marca de césped artificial AstroTurf como forma de evocar la simulación de las campañas genuinas, o grassroots, es bien conocido en política, e incluso existen compañías como Crowds on Demand dedicadas a simular multitudes que persiguen a una persona o la aclaman para que parezca que es famosa.

Pero sin duda, dos tecnologías han contribuido a dar a este tipo de estrategias la relevancia que han adquirido ahora: por un lado, la popularización de internet y las redes sociales, con su capacidad para crear perfiles falsos que no solo presionan botones, llevan a cabo visualizaciones falsas o luchan por alcanzar los trending topics, sino que incluso entran en conversaciones y estimulan la participación de personas reales en torno a un tema determinado, buscando situar ese tema en la agenda o en el diálogo político. Por otro, la llegada de la inteligencia artificial generativa, que permite llevar a cabo esa tarea de creación de bots de forma mucho más convincente y convierte en mucho más difícil su identificación y aislamiento.

Ya en 2018, otro artículo académico publicado en Nature, «The spread of low-credibility content by social bots« (Shao, C., Ciampaglia, G.L., Varol, O. et al., Nat Commun 9, 4787) analizaba catorce millones de mensajes en Twitter (que entonces, además de llamarse Twitter y no X, permitía el uso de su llamada firehose por parte de académicos) encontraba evidencia de que los bots en redes sociales desempeñaban un papel desproporcionado en la difusión de artículos de fuentes de baja credibilidad, amplificando ese contenido en los primeros momentos de difusión antes de que se hicieran virales, y dirigiéndose a usuarios con muchos seguidores a través de respuestas y menciones.

Frenar este tipo de actividad no es sencilla. En todo el mundo, y particularmente en países con bajos costes laborales unitarios, existen auténticas granjas dedicadas a generar constantemente actividad no genuina que se pone al servicio del mejor postor, y que además mejora sus técnicas rápidamente para evitar ser detectada: de las toscas campañas de inflado de cuentas de principios de este siglo, en las que, de la noche a la mañana, un usuario era seguido por millones de cuentas obviamente falsas radicadas en países con los que ese usuario no tenía la más mínima conexión, hemos pasado a cuentas con imágenes generadas por inteligencia artificial que no corresponden a ningún otro usuario, capaces de entrar en conversación hasta el punto de prácticamente pasar el test de Turing, y la cuestión solo puede, dada la situación actual, ir a peor.

Llegado este contexto, exigir a las redes sociales que controlen la actividad no genuina resulta cada vez más importante. Pero contrariamente a lo que piensan algunos, eso no exige necesariamente el fin del anonimato o la eliminación de la privacidad, sino que puede llevarse a cabo de maneras mucho más respetuosas. La actividad no genuina genera patrones identificables, a menudo muy sencillos, y puede ser atajada por los gestores de las redes si tuvieran una mínima voluntad para ello y no fueran sistemáticamente juzgados por métricas como el número de cuentas creadas, que desincentivan cualquier actividad que le ponga freno.

Lo que sí está claro es, en primer lugar, que este tipo de actividades cumple su función, que son cada vez más utilizadas en política y en otros ámbitos, y que si no les ponemos freno, vamos a terminar teniendo problemas serios con unas sociedades humanas cada vez más manipulables. Nos estamos jugando mucho con este tema, y convendría no frivolizar y no pensar que hablamos de cuestiones meramente anecdóticas o que solo afectan a los más ignorantes. La desinformación es real y creciente, y ponerle control es cada vez más necesario.

Nota: https://www.enriquedans.com/

Te puede interesar