Tecnología y regulación: ¿por qué tendemos siempre a ver los cambios como amenazas?

Recursos Humanos 14 de abril de 2023
Regulation-Gerd-Altmann-Pixabay--1024x614

Mi columna de esta semana en Invertia se titula «La compleja regulación de la tecnología» y reflexiona sobre los procesos regulatorios que estamos empezando a ver en torno al fenómeno de los modelos masivos de lenguaje y los algoritmos generativos.

Al borrador de legislación europea y a la decisión de Italia, que simplemente opta por prohibir el acceso a ChatGPT aduciendo preocupación por la privacidad de sus usuarios, han seguido los Estados Unidos con una consulta pública para dar forma a una posible regulación de este tipo de algoritmos, y ahora China , en su habitual estilo «ordeno y mando», obligando a los creadores de algoritmos a presentar auditorías de seguridad que certifiquen que los contenidos generados por sus herramientas son correctos, que no utilizan materiales sujetos a derechos de autor, que no son discriminatorios y que no suponen una amenaza para la seguridad.

El problema principal de la regulación es, en primer lugar, que habitualmente es llevada a cabo por políticos que tienen una idea profundamente limitada sobre aquello que están regulando, y que se mueven en función de modelos de alarma social basados exactamente en la misma carencia de conocimientos. En el caso de los modelos masivos de lenguaje, hablamos de una disciplina, el machine learning, que lleva décadas progresando al ritmo de la disponibilidad de tecnología para el procesamiento de datos, y que simplemente, en esta ocasión, ha sido capaz de multiplicar su escala para trabajar con modelos de lenguaje con miles de millones de parámetros. El resultado es que todos los que trabajaban en machine learning hasta el momento se encuentran sorprendidos por el impacto que han tenido unos algoritmos básicamente estúpidos que no tienen ni idea de lo que están diciendo, pero a los que muchos atribuyen la clarividencia del Oráculo de Delfos.

Subestimar este tipo de herramientas es obviamente tan poco acertado como creer que son inteligentes o conscientes. Hablamos de algoritmos que han conseguido manejar el lenguaje humano con toda la complejidad que ello conlleva, y que por tanto, tendrán efectos importantes en todas las tareas y ocupaciones que utilicen el lenguaje bien como input (desarrollo de software, tareas creativas, procesamiento de artículos, etc.) o como output (creación de textos de todo tipo, conversaciones, explicaciones, etc.) Eso son muchas tareas, en las que probablemente no veremos tanto una sustitución de personas por algoritmos, como una de personas que no saben manejar algoritmos por personas que sí saben hacerlo. Además, veremos usos perversos y basados en la manipulación del proceso de entrenamiento del propio algoritmo, al menos hasta que empecemos a ver la aplicación de metodologías open source a su desarrollo.

Pero lo importante de la regulación, además del hecho de estar gestionada por políticos que suelen entender muy poco de lo que pretenden regular, es que tiende a centrarse en los aspectos negativos, en los miedos. Los seres vivos tienen una inveterada tendencia a considerar todos los cambios como amenazas, lo que lleva a que la regulación tienda a centrarse en evitarlos por encima de todo. Por lo general, interpretamos la regulación como un «control», equivalente a una lista de requisitos sin los cuales no puedes operar.

En este sentido, la aproximación italiana, por ejemplo, parte de la base de que es mejor prohibir el uso de ChatGPT a sus ciudadanos por miedo a un posible abuso de su privacidad, frente a los posibles perjuicios que podría significar para esos ciudadanos el hecho de retrasar su proceso de aprendizaje y su incorporación de ese tipo de algoritmos a sus labores cotidianas de todo tipo, algo que puede convertir a los trabajadores y a las empresas italianas en menos competitivos con respecto a otros países en los que ese proceso de aprendizaje haya tenido lugar a un ritmo razonable. Perjudicar la competitividad de tus trabajadores y tus empresas por miedo a un posible – que no documentado – abuso de su privacidad es, en los tiempos que vivimos, una irresponsabilidad manifiesta, y una demostración de regulación tremendista. Básicamente, regulación por miedo, sin duda una de las peores que pueden plantearse. Si quienes regulan son incapaces de entender el potencial de una tecnología y regulan, por tanto, como reflejo de unos miedos existenciales prácticamente atávicos, ¿qué esperanza existe de obtener una regulación con tintes razonables?

Cuando hablamos de regulación tecnológica, tenemos que partir de una base fundamental: el regulador tiene que entender la inevitabilidad del hecho tecnológico y, por tanto, mantener siempre una actitud proactiva, no reactiva, aunque ni siquiera la ciudadanía tenga esta actitud. De hecho, el regulador debería estar en su puesto precisamente por ser capaz de «ver más allá», y de contraponer el sentido común y la reflexión a medio y largo plazo a los temores de la ciudadanía. Que un ciudadano de a pie sea tan ignorante como para pensar que una tecnología puede simplemente prohibirse o detenerse su desarrollo a golpe de decreto puede ser disculpable. Que lo crea el regulador o el legislador es un drama.

Los modelos masivos de lenguaje y los algoritmos generativos van a ser una nueva piedra de toque que demuestre que nuestra sociedad es particularmente mala a la hora de intentar regular lo nuevo, lo disruptivo o lo que genera cambios. De ese proceso surgirán algunos países que serán capaces de compaginar una razonable protección a sus ciudadanos, con la proactividad necesaria e imprescindible para que estos no se queden anclados en el pasado y pierdan competitividad por una simple cuestión de miedo al cambio. Para el regulador, sin duda, un reto. Para el tecnólogo, más de lo mismo.

Nota:https://www.enriquedans.com/

Te puede interesar