El Municipio colaborará con la mesa provincial para el control de canes asilvestrados

Actualidad - Internacional10 de mayo de 2024
Computer-hallucinating

Cada vez son más los casos en los que las mal llamadas «alucinaciones» de algoritmos generativos como ChatGPT, provocan casos suficientemente provocativos como para, como mínimo, reflexionar sobre el tema, y en algunos casos, para directamente generar responsabilidades legales.

Eso es lo que ha pensado Max Schrems, el abogado y activista austríaco que ha puesto en jaque ya en varias ocasiones a compañías norteamericanas y a los mismísimos acuerdos de intercambio de datos con los Estados Unidos (diciendo algo tan razonable como que un país en el que existe una NSA no puede garantizar en ningún caso los derechos de nadie), y que ha demandado a OpenAI por inventarse información falsa sobre sus usuarios, algo que OpenAI ha admitido claramente que no puede corregir y que tiene muchas posibilidades, a pesar de ser en muchos casos información inventada, de vulnerar la privacidad.

La circunstancia es, como mínimo, curiosa: ¿puede vulnerar tu privacidad que alguien se invente algo sobre ti? Podría, obviamente, suponer una difamación, como en el caso del profesor que se encontró con que ChatGPT decía que había sido protagonista de un escándalo de acoso sexual, pero… ¿una infracción de la privacidad?

La respuesta requiere una cierta reflexión. Yo mismo me he encontrado con muchos casos: ChatGPT, por ejemplo, me ha casado con la mujer del fundador de mi compañía, y Perplexity me ha dejado absolutamente perplejo cuando se ha inventado cómo conocí a mi mujer a través de un mensaje de Twitter o me ha atribuido hasta tres hijos cuando solo he tenido una hija. Para mí no son más que situaciones divertidas que terminan convertidas en chistes que uso en mis clases y conferencias, pero ¿qué pasa cuando eres un abogado que es sancionado porque el algoritmo se inventó varios casos en los que basaste tu defensa, por ejemplo? Que sí, que todos sabemos que los algoritmos generativos te ahorran tiempo en la creación pero te lo incrementan en la supervisión, y que por tanto, no llevar a cabo correctamente esa supervisión es irresponsable. Pero al final, hablamos de información incorrecta, proporcionada en función de correlaciones absurdas, y sobre la cual OpenAI simplemente pretende justificarse con un simple pie de página genérico que dice «ChatGPT can make mistakes. Consider checking important information».

¿Es eso suficiente? Si tu herramienta es susceptible de inventarse auténticas barbaridades sobre cualquiera y de redactarlas de manera perfectamente creíble, ¿no puede convertirse en una amenaza, o generar responsabilidades? ¿Y qué puede hacerse frente a algo así, a una serie de procedimientos estadísticos complejos que establecen relaciones muchas veces inexistentes y que la compañíqa que lo comercializa afirma no poder controlar?

A la pregunta de «¿Qué responsabilidad tiene un algoritmo generativo sobre los datos que se inventa acerca de una persona?», la respuesta de ChatGPT, a quien en esta ocasión es muy razonable preguntárselo, dice lo siguiente:

Un algoritmo generativo, como aquellos utilizados en modelos de inteligencia artificial para crear contenido, no tiene «responsabilidad» en el sentido humano o legal, porque es simplemente una herramienta tecnológica operada por humanos. Sin embargo, los desarrolladores y usuarios de estos algoritmos tienen la responsabilidad ética y, en algunos casos, legal, de asegurarse de que el contenido generado no infrinja derechos como la privacidad y la reputación de las personas. Esto implica implementar medidas de seguridad y control para evitar la generación de información falsa o difamatoria sobre individuos. Además, es crucial que existan claras políticas de uso y mecanismos para rectificar cualquier error que los algoritmos puedan generar.
Unas políticas de uso y mecanismos que la propia OpenAI admite no tener, lo que la situaría en el terreno de la irresponsabilidad. Pero por otro lado… ¿estaríamos dispuestos a renunciar a la potencial productividad que pueden aportarnos las herramientas generativas por unas cuantas informaciones erróneas sobre algunas personas?

Porque realmente, ¿cómo de habitual es que los algoritmos generativos se inventen cosas? Pues ocurre que es bastante habitual, que los chatbots «alucinan» mucho más de lo que algunos creen: concretamente, entre un 3% y un 27%. Y claro, con esas cifras ya estamos más lejos de verlo como un problema puntual, y se convierte en algo que sí parece susceptible de generar algún tipo de responsabilidades para quien comercializa esa herramienta.

El sueño de la razón produce monstruos. Los algoritmos no sueñan, pero encuentran correlaciones muchas veces minúsculas, que utilizan para construir razonamientos supuestamente impecables que, en realidad, pueden ser auténticas barbaridades, que implican en muchas ocasiones a personas reales y que son susceptibles de generar todo tipo de situaciones complejas. ¿Deberíamos exigir a las compañías que los desarrollan que buscasen formas de poner ese tipo de respuestas bajo control?

Nota: www.enriquedans.com/2024

Te puede interesar