Reflexionando sobre el bloqueo en redes sociales

Actualidad 20 de agosto de 2023
Blocked-Markus-Winkler-Unsplash-768x512

Una contestación de Elon Musk a un usuario en Twitter acerca de la diferencia entre el block y el mute en la que afirma que su red va a eliminar la posibilidad de bloquear usuarios, una de las reacciones más habituales cuando alguien se encuentra con usuarios hostiles, con situaciones de acoso o con spammers, ha desatado todo tipo de opiniones sobre esa funcionalidad y su posible eliminación.

En mi opinión de usuario con más de dieciséis años de experiencia en Twitter – ahora X – y con todo tipo de batallas libradas que incluyen el trolling, el acoso, el spam automatizado, los insultos, las amenazas y muchas cosas más, la función de bloquear usuarios representa una muy mala solución a un problema que precisa de una reflexión profunda, reflexión que de hecho lleva muchos años teniendo lugar.

Bloquear a un usuario en una red social implica diversos resultados: en Twitter, lo único que hace es que ese usuario no pueda, a partir de ese momento, mencionarte utilizando tu cuenta, y que, además, no veas sus actualizaciones salvo que lo solicites expresamente. El resultado, por lo general, consigue que el usuario que lleva a cabo el bloqueo rebaje su tensión, pero no porque las acciones no persistan – se pueden seguir llevando a cabo fácilmente sin mencionar la cuenta del usuario – sino porque, simplemente, deja de verlas. En no pocas ocasiones, el usuario afectado sigue siendo objeto de insultos, acoso y persecución, pero simplemente escoge la opción del avestruz: esconder la cabeza en la arena y darse por no enterado (ya, ya sé que los avestruces no entierran su cabeza en la arena… es una forma de hablar).

Con el spam, es peor: si, como es mi caso y el de muchísimas cuentas con cierta popularidad, una bot factory elige tu cuenta para hacer spam automatizado, bloquear sus cuentas no sirve absolutamente de nada: primero, porque puede seguir creando cuentas nuevas a razón de muchas diarias, y segundo, porque lo único que hace es que tú no veas ese spam, pero que siga estando ahí. De nuevo, la táctica del avestruz.

¿Por qué mantener entonces una solución que no solo no funciona, sino que simplemente entrega una cierta impresión – falsa – de tranquilidad a los usuarios? ¿No deberíamos plantear otros métodos de control más eficientes? ¿Qué debería poder hacer ante actitudes hostiles de otros usuarios? Básicamente, intentar dotar a los usuarios de un cierto control REAL, no ficticio, sobre su cuenta. La posibilidad, por ejemplo, de que únicamente los usuarios que sigas o menciones contesten a tus actualizaciones, puede ser considerada excluyente, pero funciona (de hecho, es la que estoy utilizando últimamente para evitar a las spambot factories: publico mis actualizaciones como restringidas, y las cambio a abiertas unos minutos después, cuando ya han desistido).

En realidad, este tipo de mecanismos no serían necesarios si las compañías que gestionan estas redes reaccionasen con prontitud y eficiencia ante las incidencias: si me insultan o me acosan, la compañía debería reaccionar rápidamente, eliminando los insultos o el acoso, y posiblemente sancionando a los que lo llevan a cabo con suspensiones temporales o con la pérdida de la cuenta en caso de reincidencia. Si no sabes comportarte en un foro público, lo lógico no es ofrecer unas orejeras a aquellos a los que ofendes, sino echarte de ese foro.

Esa inversión de la cuestión, considerar que el problema lo tienen las orejas del ofendido y no la boca del que ofende, es en realidad la clave de que Twitter se convirtiese en el fétido pozo de basura en el que se convirtió, en el que imperaba la ley del que más insultaba y ofendía. Si ese tipo de comportamientos se hubiesen encontrado con una acción decidida de los gestores de la red que la restringiese, no habría llegado jamás a proliferar de esa manera. No, no se trata de tener herramientas para taparme los oídos, sino de las necesarias para tapar la boca al que genera el problema.

Obviamente, las cosas no son tan simples. Hay muchas situaciones en las que el ofendido, de alguna manera, provoca el comportamiento o las reacciones que posteriormente pretende evitar, como hay otras en las que el acoso o el insulto tiene lugar sin uso de palabras ofensivas, sino mediante la ironía o la revelación de datos. Las relaciones humanas son complejas y difíciles de gestionar, ya lo sabemos. Pero empezar permitiendo que alguien acose, insulte o haga spam, y ofreciendo simplemente a la víctima una herramienta para no verlo u oírlo no parece la mejor manera de solucionar el problema.

En la práctica, lo que parece que Musk quiere hacer es poner orden en el desastre que compró: una red en la que factorías de cuentas falsas vomitan basura todos los días que llena la red de usuarios que no existen, cuentas que deberían ser eliminadas de un día para otro. Si bloquear esas cuentas no tiene sentido, hagamos que funcionen los mecanismos de denuncia, y que sean eliminadas de manera sumaria en cuanto un usuario evidencia que son cuentas automatizadas. Lo mismo con los insultos. Eliminar una cuenta porque hace que tus anunciantes se sientan incómodos es un comienzo: ahora, sigue eliminando cuentas cuando sean otros usuarios los que se sientan incómodos con sus acciones. Cuanto menos te tiemble la mano con el botón de eliminar cuentas de gente o de instituciones que no se saben comportar, mejor empezarán a comportarse los que queden.

Eliminar el bloqueo es posible si lo sustituimos con mejores mecanismos de control de la participación, mecanismos que, por otro lado, tienden a paralelizar mejor lo que ocurre fuera de las redes. El bloqueo es una solución puramente cosmética que, aunque implantada, ha demostrado en muchas ocasiones no ser la solución real a nada. Es el momento de repensar cómo gestionamos este tipo de cosas.

Nota:https://www.enriquedans.com/

Te puede interesar