Cuando el algoritmo piensa por ti

Actualidad 02 de febrero de 2023
Thinker-Justin-Martin-Pixabay-683x1024

Mi columna de esta semana en Invertia se titula «Malos tiempos para el pensamiento crítico» (pdf), y trata de profundizar en las posibles consecuencias de una proliferación de servicios de búsqueda de información en la red basados en algoritmos que devuelven respuestas redactadas, sin datos adicionales ni explicaciones sobre su procedencia.

Es lo que llama la atención al utilizar ChatGPT como si fuera un buscador: la respuesta es aparentemente brillante, concisa, correctamente redactada y, según quién seas y para qué la necesites, lista para ser copiada y pegada donde haga falta. Si lo comparamos con la respuesta de Google, una página de resultados (Search Engine Results Page, o SERP) suele contener, como mínimo, la información sobre la procedencia de la respuesta, así como un breve fragmento de texto (snippet) y, sobre todo, la necesidad de utilizar el pensamiento crítico para tomar una decisión sobre cuál de los enlaces pulsar.

Si tenemos en cuenta que, en la sociedad actual, hay una no despreciable cantidad de personas que consideran el primer resultado de Google como prácticamente norma de fe y verdad absoluta, y que de hecho, el buscador tiene un botón, «Me siento afortunado», precisamente para ese tipo de gente (según la compañía, lo mantienen por razones sentimentales y por su escaso nivel de uso), ¿qué va a ocurrir cuando las respuestas a las preguntas de los usuarios sean textos redactados, redondos y sin fuentes?

La respuesta es clara: si el pensamiento crítico es, desgraciadamente, una habilidad cada vez menos desarrollada en las sociedades humanas, un paso como ese podría llevarnos a que lo fuese aún menos. Salvo que cunda el ejemplo de Perplexity.ai y las compañías que provean esos servicios decidan proporcionar las fuentes a partir de las cuales componen sus textos de respuesta – y aún en ese caso, es previsible que muchos usuarios simplemente no lleguen ni a plantearse examinarlos – nos encontraríamos con una tendencia cada vez mayor a hacer una pregunta, leer unas pocas líneas de un texto que lo mismo puede haber salido de la opinión de un Premio Nobel que de una página negacionista, terraplanista y conspiranoica, y quedarnos con la respuesta como si fuera la verdad absoluta. El «as seen on TV« de los años ’60 que pretendía que algo era cierto porque lo habíamos visto en la tele, llevado a la web.

El problema, además, no es solo la pérdida de la habilidad del pensamiento crítico, algo cuya responsabilidad como tal no corresponde a las compañías tecnológicas, sino más bien al sistema educativo y a la educación que transmiten los padres a sus hijos, sino la aparentemente ilimitada capacidad de manipulación que podría surgir de un sistema como ese, simplemente seleccionando con cierto cuidado sus fuentes – algo que sería, además, extremadamente discreto – o seleccionando sus respuestas. Una sociedad a la que se le dan las respuestas completamente masticadas para que no tenga que llevar a cabo ningún procesamiento mental adicional.

Competitivamente, sería extraño que esa fuera la dirección de las cosas. Microsoft, tras su inversión de diez mil millones de dólares, se dispone a incorporar ChatGPT en su buscador Bing, básicamente, porque no tiene nada que perder: si los resultados no son buenos, es culpa de un tercero, y afectarían solo a un escaso 3% del mercado, y si son estimados como buenos, podría suponer un salto cualitativo en la percepción que el 97% restante tiene sobre Bing. También se dispone a incorporarlo en Office (vale la pena verlo funcionando en Excel o en Google Sheets, por ejemplo).

Para Google, sin embargo, el movimiento no es tan sencillo. El potencial impacto de un buscador de Google contestando barbaridades, falsedades o errores de bulto es mucho mayor, y podría erosionar la confianza que sus usuarios tienen en él. De hecho, pensaban pasar mucho más tiempo refinando LaMDA antes de hacer nada – cuando eres líder con semejante margen, no suele haber muchas prisas ni mucho interés por los cambios bruscos – hasta que vieron claramente que, en los tiempos de viralidad extrema que vivimos, si no te mueves, caducas.

¿Por dónde sería razonable que se moviese Google ahora? Desde su posición de liderazgo, y considerando el impacto que sabe que tiene sobre el futuro de la web, lo lógico sería que pusiese en el mercado no una simple integración de la tecnología de un tercero como OpenAI, sino su propia integración de un large language model (LLM) con trazabilidad de fuentes al estilo Perplexity, y algún tipo de añadido más que le proporcione una imagen de mayor rigor, algo que pueda reforzar su imagen y explique por qué razón tardaron tanto para moverse en esa dirección.

Por:https://www.enriquedans.com/

Te puede interesar

Ultimas noticias

Suscríbete al newsletter para recibir periódicamente las novedades en tu email

                  02_AFARTE_Banner-300x250

--

                

Te puede interesar