







Cerrada la peleada etapa del cierre de listas y la definición de candidatos, se impone la siguiente, tanto o más compleja: la de la campaña política. Esta será la primera campaña post revolución de la inteligencia artificial, popularizada al punto de estar al alcance de cualquier usuario. Será, también, una en la que el mundo digital se impone como inevitable vehículo -o acaso como el escenario mismo- de cualquier estrategia que las distintas alianzas se planteen. Algunas pistas: las deep fakes con IA que mostraron a Mauricio Macri o Silvia Lospennato diciendo cosas que no dijeron, los recientes recortes que deformaron declaraciones de Axel Kicillof. También, el spot que lanzó la intendenta Mariel Fernández apuntando contra Milei, un jemplo de uso "legal" en tanto contiene la advertencia: "El audio y video original fue modificado con IA. Cualquier parecido con la realidad es pura ¿coincidencia?". Pero los expertos advierten sobre lo que se viene, o ya vino pero no es tenido en cuenta en toda su potencial transformación: opiniones moldeadas por algoritmos de recomendación, enormes movimientos de desinformación facilitados ahora por el meta verso, la realidad extendida y la intimidad artificial.


Mucho más que un videito
Sobre la publicidad política engañosa, como los videos falsos que hicieron en la campaña porteña, puede hablar Beatriz Busaniche, directora de la Fundación Vía Libre, creada para defender los derechos de las personas en el entorno digital. Reconoce que estos temas están ya bien regulados en la legislación electoral (de hecho avanzaron las denuncias e investigaciones en estos casos), aunque "el costo a pagar por hacer una jugada de esas es quizás menor que lo que se puede llegar a ganar con una jugarreta por el estilo".
"En ese caso sin dudas movió votos de Lospennato a Adorni, porque aunque se sepa falso, transmite un mensaje y el mensaje era que sólo La Libertad Avanza podía ganarle al kirchnerismo. Mucha gente supo que era fake el video, pero el mensaje permeó, eso hasta fue medido", recuerda.
Pero advierte también: "El problema mayor no es tanto la emergencia de videos fakes o mensajes hechos con IA, sino cómo se está moldeando las opiniones con los algoritmos de recomendación de las plataformas. Nadie se pregunta por qué tantos jóvenes creen que su falta de oportunidades y futuro se debe a que los abuelos se jubilaron, o peor, que la abuela se jubiló como ama de casa. Eso no se construye con un videito, es una trituradora de ideología metida en la carne de los pibes", define.
El futuro es todo inmerso
La politóloga y directora de Salto Agencia Natalia Zuazo cita la tesis de Eugenia Mitchelstein y Pablo Boczkowski en su libro El entorno digital: si antes existía la posibilidad de "entrar y salir", del mundo digital, hoy vivimos dentro de él, estamos 7 x 24 mediados por tecnologías. Cualquier diseño de campaña, entonces, debería partir de esa constatación, IA incluida.
"Con la IA podes hacer un montón de cosas muy rápidas, más allá de los deep fakes y cosas malintencionadas. Hay todo un mundo que se abre, que incluye hasta los juegos on line. Antes tenías que tener mucha plata para programar, ahora es totalmente posible. Creo que vamos a ver ese tipo de cosas novedosas en la campaña", adelanta.
Se suma a un uso conocido, que podrá intensificarse: Si lo que se recuerda y vende son las emociones y no la racionalidad, el ecosistema digital está listo para "rascar donde pica", haciendo eje en los miedos que golpean a la sociedad: la inseguridad, por ejemplo.
Modelo yanqui
Micaela Mantegna investiga sobre ética de la inteligencia artificial y derechos de videojuegos, además de ser una gran divulgadora como TED Fellow. Para pensar lo que viene -o ya vino pero no es visto en toda su magnitud- advierte sobre la conexión entre los movimientos de extrema derecha, con influencers que ganaron celebridad en Estados Unidos como el autoproclamado misógino Andrew Tate (quien tiene causas abiertas en Reino Unido y Rumania por trata de personas y violación, y es una suerte de héroe del trumpismo), y el cada vez más extendido movimiento incel (varones instalados en el 'celibato involuntario', según el acrónimo de la expresión inglesa involuntary celibate, que se popularizó con la serie Adolescencia).
Lo entiende como parte de una estrategia general, acaso un ecosistema, que atraviesa canales de streaming, influencers, podcasts de extrema derecha, juegos y comunidades on line. "Son más o menos directos o sutiles, pero todos portan el mismo mensaje frente a varones con esa sensación de que están perdiendo frente al mundo. Es mucho más sencillo canalizar esa angustia y bronca de este modo, encontrar al enemigo en el avance de las mujeres o el 'wokismo', que entenderlo como parte del sistema de dominación capitalista", analiza.
Y así como, asegura, cinco años atrás desde su campo de estudio se hablaba de deep fakes políticas y eso era visto como "ciencia ficcion", ahora es tiempo de comenzar a hablar seriamente de desplazamiento, desinformación, realidad extendida e intimidad artificial.
"La gente piensa que el meta verso ya murió, por el proyecto fallido de Meta. Pero en realidad son capas de información digital que se añaden a la realidad física, y se está continuando ese trabajo de una forma muy callada: lo vemos en dispositivos Rainbaw Mobile (que filman y almacenan lo que la persona está viendo, y lo combina con datos digitales, con sus variantes para juegos), y en las nuevas plaformas que te permiten leer tus datos motores: vos pensás y el dispositivo escribe", relata.
Mantegna habla de sus nuevos campos de estudio e invita a pensar en los usos políticos que abren (además de advertir que todas las tecnologías, incluso los juegos on line, son en sí mismas políticas, transmiten ideología). Habla del boom global de una plataforma llamada Réplika, que genera "amigos virtuales", de su probada conexión con el gobierno ruso y sus intereses en la guerra de Ucrania. "Son mensajes sutiles, no es 'votá a tal', más bien miradas del mundo que se van instalando", explica.
Se denomina intimidad artificial y combina IA generativa, "hay 'amigos' o terapistas artificiales con los que la gente empieza a desarrollar vínculos afectivos, se vuelve vulnerable en tanto no advierte que todo lo que está compartiendo con esa tecnología va a ser parte de una maquinaria para suscribirse a servicios y venderte cosas, por qué no candidatos", apunta.
Un vínculo afectivo y de confianza, listo para emitir mensajes perfeccionados a partir de toda la información que esa misma persona entregó voluntariamente. La forma de propaganda perfecta.
Por Karina Micheletto / P12







