Bots, algoritmos generativos y la Dead Internet theory

Actualidad 05 de mayo de 2024
Dead-Internet-theory

Un informe de la compañía de ciberseguridad Imperva afirma que prácticamente la mitad del tráfico en internet procede ya de fuentes no humanas, es decir, está originado por la actividad de bots de diversos tipos.

Los robots crean contenido de todo tipo y lo consumen, desde actualizaciones en redes sociales hasta noticias en medios y pasando por música, alimentando esquemas absurdos que mueven flujos de dinero basándose en métricas más absurdas aún. Yo sé que soy real, que soy yo, y no ningún asistente de inteligencia artificial, quien escribe todos los artículos de esta página, y también me consta que la inmensa mayoría de los comentarios que reaccionan a ella provienen de personas reales… pero todos los días, Akismet detiene unas cuantas decenas de comentarios de spam generados por bots, que si bien no suponen un problema para la higiene del sitio, sí presagian lo que puede ocurrir a medida que sus esquemas se puedan ir volviendo más y más sofisticados.

Estas cifras sirven para proporcionar aire a la denominada Dead Internet theory, una teoría conspiranoica nacida en foros de 4chan que afirma que internet consiste fundamentalmente en contenido generado automáticamente y en una actividad incesante de bots en torno al mismo manipulada mediante curación algorítmica, diseñada como una psy-op para manipular a la población.

También sirve para reflexionar sobre muchas cosas: por ejemplo, ¿dónde está la línea entre el humano y el bot? Yo escribo y corrijo yo mismo mis textos (como puede detectarse por la habitual presencia de typos variados), pero si, por ejemplo, los editase mediante un asistente generativo para dotarlos de mayor corrección gramatical o de estilo, o reducir mis enrevesadas oraciones multi-subordinadas que dejan sin aliento a mis lectores, ¿cualificaría como contenido creado por mí, o por un bot? No lo hago, pero ¿y si lo hiciera?

A medida que la tecnología evoluciona, crear cuentas falsas con una imagen ni siquiera robada sino generada, con una supuesta «personalidad» y con unas opiniones asignadas resulta cada vez más sencillo, casi trivial. También lo es el generar suplantaciones, deepfakes y todo tipo de contenido pensado para ser compartido rápidamente sin reflexión alguna, lo que ofrece cada vez más oportunidades a la manipulación social (hablé sobre el tema ayer para Noticias 4) y permite no tanto dar validez a la Dead Internet theory, pero si reflexionar sobre el camino que llevamos y la absurda corrupción del sentido común que le da origen, provocada por actores sobradamente conocidos y por métricas absurdas que nunca sirvieron a su propósito original.

La cuestión parece falsamente sencilla: ¿la mitad de la internet es falsa? Pues centrémonos en páginas y en contenidos que sabemos generados y discutidos por personas de verdad. Pero la realidad no es tan simple: si ese criterio es compartido por la mayoría de la población, con un fuerte predominio de usuarios inexpertos que se dejan seducir por contenidos y actividad «que parece genuina» pero que puede evidenciarse, con un mínimo análisis, que no lo es, ni podemos saber qué pasará a medida que esos contenidos y esa actividad vaya siendo colonizada por bots cada vez más sofisticados y más difíciles de diferenciar del comportamiento humano real.

¿Sirve la tecnología para generar nuevos problemas y también para solucionarlos? ¿Podemos aspirar a que los algoritmos del futuro sean capaces de separar deepfakes de contenidos reales, textos escritos por seres humanos de los generados por otros algoritmos, e imágenes que nunca existieron de otras que sí fueron capturadas por un fotógrafo de carne y hueso? ¿O ni siquiera esa esperanza nos queda ya?

Nota:https://www.enriquedans.com/

Te puede interesar