Yonquis del lenguaje: las tres guerras por los tronos de GPT-4

Actualidad - Internacional 23 de marzo de 2023
GettyImages-1412725212-1-1046x616

Un sistema que identifica agujeros técnicos y legales en contratos inteligentes, otro capaz de generar demandas para quien recibe una llamada automática pregrabada ilegal… Aunque no habían pasado 4 horas desde el lanzamiento de GPT-4, Internet ya se había inundado de aplicaciones construidas sobre la última iteración del enorme modelo de lenguaje de inteligencia artificial (IA) OpenAI. “He recreado el videojuego Pong en menos de 60 segundos”, escribía asombrado un desarrollador. Aquel rudimentario título había tardado unos tres meses en ver la luz en la década de 1970. Ahora, 50 años después, cualquiera puede construirse uno en menos de un minuto gracias a GPT-4.

Si un puñado de expertos fueron capaces crear todo esto en los menos de 14.400 segundos que pasaron desde la herramienta vio la luz, ¿qué ingenios se habrán gestado en la semana que ha transcurrido desde entonces? Y, lo más importante, ¿cuáles surgirán en los 200 millones de segundos que quedan de aquí a 2030? Para ese año, el valor de la industria de la IA generativa (que también incluye la producción basada en imágenes como la que ofrecen Dall-e 2 y Midjourney) podría rozar los 110.000 millones de euros a nivel mundial, lo que supondría un crecimiento anual del 34,6% frente a los cerca de 10.000 millones de euros que valía en 2022.

Estas espectaculares cifras se deben al enorme abanico de posibilidades que abren los modelos generativos de lenguaje como GPT-4. “Es una tecnología de propósito general que aplica a cualquier cosa que hagamos con el lenguaje, y los humanos somos yonquis del lenguaje”, explica el profesor del Departamento de Operaciones, Innovación y Ciencia de Datos en Esade Esteve Almirall, quien actualmente está investigando precisamente eso: qué impacto tendrán las inteligencias artificiales generativas como GPT-4 en nuestra economía, nuestros negocios y nuestro día a día.

Prácticamente todos los aspectos de la vida y el conocimiento que atesoramos sobre ellos se ejecutan a través del lenguaje, así que, donde haya lenguaje acabará habiendo grandes modelos lingüísticos. “Son un trigger, una mecha que enciende una vía de aplicaciones y que es capaz de transformar todo el mercado”, añade Almirall. Eso sí matiza que, aunque la revolución de la IA generativa tenga carácter global, sus avances, luchas por el poder y su potencial de producir valor pueden estructurarse en tres niveles distintos.

En el primero están los creadores de estos grandes modelos, como OpenAI con GPT y el respaldo de Microsoft. Y, como no podía ser de otra forma, el resto de los gigantes del oligopolio tecnológico también están trabajando en sus propios sistemas: Google tiene a LaMDA, y Meta acaba de presentar LLaMA. En el segundo nivel están las cosas como las que hemos visto en Twitter, es decir, desarrolladores y empresas independientes capaces de crear aplicaciones a partir de los grandes modelos de las big tech, como el detector de agujeros en smart contracts. Por último, en el tercer nivel están los adoptantes, las compañías y organismos que hacen uso de las aplicaciones desarrolladas en el segundo nivel. Cualquier despacho de abogados, por ejemplo, podría contratar un servicio de revisión automática de contratos inteligentes para mejorar su competitividad.

Si lo comparáramos con la industria de la alimentación, las big tech serían las productoras de un nuevo y revolucionario ingrediente que los desarrolladores usarían para producir distintas recetas que, a su vez, serían adquiridas e incluso refinadas por los consumidores para su propio beneficio. El resultado es una nueva cadena de valor al completo con tres eslabones distintos, y en cada uno de ellos “va a haber un reparto de cartas y va a haber nuevos ganadores”, nos dijo hace poco del Chief Digital Officer de Telefónica, Chema Alonso. La gran pregunta es quién ganará en cada uno de ellos y mediante qué productos y modelos de negocio.

El problema es que cuesta mucho hacer predicciones sobre una tecnología cuyos avances sorprenden incluso a sus propios creadores. Cuando en 2017 DeepMind (propiedad de Google) presentó su famosísima IA Alpha Zero, capaz de derrotar a los mayores maestros del mundo del ajedrez y el go, su CEO, Demis Hassabis, se mostró asombrado ante los movimientos y estrategias “alienígenas” que el sistema empleaba para ganar y que nadie le había enseñado. Pero, aunque no sepamos exactamente cómo van a evolucionar la tecnología y sus aplicaciones, lo que sí sabemos es que “la IA es algo más profundo que la electricidad o el fuego”, como dijo el CEO de Google, Sundar Pichai, a principios de 2018.

NIVEL 1: EL OLIGOPOLIO

Aquel año Pichai respiraba tranquilo. Google no solo era el rey absoluto de las búsquedas desde hacía tiempo, sino que un año antes ya se había convertido en primer organismo investigador en inteligencia artificial a nivel mundial, por delante de instituciones académicas como el MIT y la Universidad de Standford. Pero todo dio un vuelco a finales de 2022 cuando OpenAI presentó ChatGPT, su herramienta conversacional creada a partir de GPT-3, el hermano ‘pequeño’ de GPT-4. Aunque la tercera versión de este gran modelo de lenguaje existía desde 2020, fue su reconfiguración en formato chatbot, su disponibilidad en abierto y la posibilidad de integrarlo en motores de búsqueda lo que hizo de Pichai decretara un “código rojo” en la compañía, según informó The New York Times.

“Una de las claves del revuelo actual está en la estrategia de lanzamiento que está siguiendo OpenAI. Por un lado, ChatGPT está disponible en abierto, por otro, el formato chatbot lo vuelve muy fácil de usar. Ambas características permiten que cualquiera pueda jugar con él, aunque no tenga conocimientos técnicos. Esta es la razón por la que Internet se ha llenado de ejemplos de uso y todo el mundo está hablando de él”, detalla el director asociado del Centro de Supercomputación de Barcelona (BSC), Josep M. Martorell.

En el caso del acceso a la API de GPT-4, de momento hay que apuntarse a una lista de espera, indicar los motivos para querer usarlo (crear un nuevo producto, integrarlo en otro que ya exista o investigar) y esperar a que OpenAI conceda el acceso (aunque el modelo está abierto para los usuarios de pago de ChatGPT). Pero, aunque son más o menos los mismos requisitos que impuso para acceder a GPT-3, su mayor capacidad y potencia sumada a la fama adquirida gracias a ChatGPT es la que ha provocado que la última versión del modelo esté haciendo que todo se tambalee.

Por un lado, está el enorme mercado de las búsquedas por Internet, del que Google es líder indiscutible desde hace más de dos décadas. Gracias a su motor de consulta y a los resultados que ofrece en formato enlace, sus ingresos por publicidad representan su principal fuente de beneficios, los cuales no han dejado de crecer en 20 años. No obstante, si se fija en el gráfico sobre la cuota de mercado de los distintos buscadores, verá que la de Bing, el buscador de Microsoft del que casi nadie se acordaba, está empezando a crecer al mismo tiempo que la de Google se reduce.

Esto se debe a la integración de ChatGPT en Bing, que promete cambiar de arriba abajo el paradigma actual del mercado de las búsquedas. ¿Quién pincharía un enlace para consultar información si el chatbot se la ofrece en lenguaje humano y de un vistazo? ¿Entiende ahora que Pichai decretara el código rojo en diciembre? “Bing tiene una oportunidad de oro”, confirma Almirall. No obstante, señala que la guerra por repartirse el pastel en el nivel del oligopolio no también estriba en el impacto que cada una de sus IA tendrá en sus respectivos productos y servicios existentes.

Tanto Google como Microsoft lideran la oferta de servicios de entornos de trabajo con WorkSpace y Microsoft 365, respectivamente. Dentro de cada uno de ellos, ambos compiten con sus propios productos, como hojas de cálculo, sistemas de videollamada y procesadores de texto, entre otros muchos. A medida que la inteligencia artificial se vuelva más útil para mejorarlos, la baraja de los clientes de estos productos y servicios volverá a repartirse dando nuevos ganadores y perdedores. De hecho, justo el mismo día que OpenAI lanzó GPT-4, Google anunció mejoras y funciones en los servicios de WorkSpace gracias a la IA generativa y, al día siguiente, Microsoft hizo lo mismo con el lanzamiento de Microsoft 365 Copilot.

En ambos casos, búsquedas y entornos corporativos, los beneficios llegarían de forma indirecta. Pero Almirall revela que OpenAI ya está ofreciendo servicios personalizados con GPT-4 a algunos clientes. El experto se refiere a esto como el negocio de “lucro directo”, y detalla: “Esta es la parte que menos ha trascendido, pero se sabe que ha cerrado un acuerdo con la consultora Bain. Las consultoras y auditoras como McKinsey son los clientes directos más probables porque son muy intensivos en capital humano a la hora de elaborar informes, que es justo donde los grandes modelos de lenguaje pueden aumentar su productividad, y lo mismo pasa con los grandes despachos de abogados”.

NIVELES 2 Y 3: EL ECOSISTEMA Y LOS CLIENTES FINALES

Mientras las big tech compiten entre ellas por los grandes modelos de lenguaje, desarrolladores de todo el mundo han empezado su propia carrera para aplicarlos en productos y servicios comercializables. Si el nacimiento de Internet dio lugar a la burbuja de las puntocom, y blockchain ha creado la suya propia con las criptomonedas y los NFT, no cabe duda de que la de la inteligencia artificial generativa está a punto de empezar a inflarse.

De hecho, la carrera empezó ya hace meses, aunque lo hizo despacio, como nos contó nuestro compañero Antonio Ortiz en diciembre: “Apenas he dado con un puñado de proyectos que estén aprovechando el enorme potencial de GPT-3 para abrirse paso. Jasper utiliza la API de OpenAI para crear contenido de marketing y anuncios para redes sociales […]. Hay otros proyectos interesantes, como el editor Lex, que usa GPT-3 para luchar contra la parálisis del folio en blanco, y dos de mis favoritos: Ai Dungeon, que genera juegos de aventuras basados en texto, y Replika, la app ‘amiga/o virtual’”.

Y, aunque los ejemplos que hemos visto en Twitter a base de GPT-4 de momento son solo demostraciones, su mayor potencia, facilidad de acceso y popularidad auguran que falta muy poco para que empecemos a ver una eclosión de nuevas empresas y modelos de negocio que provocarán un “cambio radical” en prácticamente todas las industrias, apunta Esteve. Para demostrarlo, un reciente informe de McKinsey señala cinco áreas que ya están empezando a aplicar IA generativa (por cierto, el siguiente listado está en español gracias a un sistema de traducción automático alimentado por inteligencia artificial que ha tardado un segundo en darme la respuesta):

Marketing y ventas: elaboración de contenidos personalizados de marketing, redes sociales y ventas técnicas (incluidos texto, imágenes y vídeo); creación de asistentes adaptados a negocios específicos, como el comercio al por menor.
Operaciones: generación de listas de tareas para la ejecución eficiente de una actividad determinada.
TI/ingeniería: redacción, documentación y revisión de código.
Riesgos y asuntos jurídicos: respuesta a preguntas complejas, extracción de grandes cantidades de documentación jurídica y redacción y revisión de informes anuales.
I+D: aceleración del descubrimiento de fármacos mediante una mejor comprensión de las enfermedades y el descubrimiento de estructuras químicas.
Con estos productos y servicios gestándose en todos los rincones del mundo, y otros que ni siquiera somos capaces de imaginar todavía, llegamos al último eslabón de la cadena, el de las empresas adoptantes. Del mismo modo que las compañías que ya estaban digitalizadas resistieron mejor a los embistes de la pandemia, aquellas que más rápido y mejor incorporen los beneficios de los grandes modelos de lenguaje también obtendrán una ventaja competitiva. Lamentablemente, si la transformación digital de la industria española se está produciendo a dos velocidades, todo apunta a que la adopción de la IA va a vivir una evolución similar.

“Las multinacionales y las grandes empresas de sectores como la banca y las telecomunicaciones lo adoptan muy rápido, pero luego hay un valle, un desierto en el que la integración de tecnologías como el cloud y la inteligencia artificial directamente no existe para las pequeñas y medianas empresas, a menos que sean start-ups, que directamente nacen digitalizadas”, lamenta el profesor de Esade.

NIVEL ESPAÑA: DOS ASES EN LA MANGA

Llegados a este punto habrá notado dos cosas. La primera es que, dado que el 99,9% del tejido empresarial español está compuesto por PYME a las que eso de digitalizarse no les sale muy natural, es poco probable que nuestro país despunte a la hora de aprovecharse de las ventajas de los modelos de lenguaje generativos. “Esto puede hacer que nuestra productividad se vaya a pique”, advierte Almirall. La segunda es que no hay ningún actor español ni europeo que esté compitiendo contra los gigantes del oligopolio.

Si ni creamos modelos en el nivel 1, ni adoptamos productos y servicios en el nivel 3, nuestra capacidad de innovar y generar riqueza queda limitada al nivel 2 de la cadena, lo que tampoco resulta especialmente bueno para nosotros. El experto de Esade explica: “Va a ser una sangría, porque las apps que tengan éxito se podrán copiar en seguida”. ¿O acaso no se acuerda de la burbuja de aplicaciones que apareció en la época de los primeros smartphones?

La buena noticia es que España tiene un as en la manga que podría cambiar el tablero de juego dentro de muy poco: el superordenador MareNostrum5 que ya está en fase de montaje en el Centro de Supercomputación de Barcelona. “Es la única máquina del país y probablemente de Europa que podría ser capaz de competir con los ingentes recursos computacionales de las big tech”, explica el experto de Esade, ante su potencia 30 veces superior a la de su predecesor.

En este contexto y a igualdad de acceso a grandes modelos e ingentes bases de datos, Almirall señala que “la clave va a estar en la calidad de los datos, capaz de sustituir a la cantidad”. La cuestión es tan crítica que, según Martorell, antes incluso del nivel 1 en el que se crean estos grandes modelos, “existe un nivel anterior basado en los conjuntos de datos de entrenamiento”. Y aquí es donde aparece nuestro segundo as: “el enorme corpus de datos lingüísticos que tenemos en España”, añade el director del BSC.

Aunque los modelos de lenguaje funcionen cada vez mejor, ni siquiera GPT-4 es capaz de escapar de las ‘alucinaciones’, el término que utiliza la industria cuando la IA parlante empieza a inventarse cosas. El fenómeno es tan real que solo tres días después de su lanzamiento, Meta se vio obligada a retirar su herramienta Galactica, diseñada para identificar y resumir información científica. Martorell señala: “Si queremos herramientas hospitalarias capaces de leer los historiales médicos de los pacientes, no pueden funcionar a medias, tienen que ser perfectamente competentes, por eso hay que entrenarlas con un buen corpus en castellano, y esa es otra de las cosas en las que hemos estado trabajando gracias al PERTE Nueva economía de la lengua”.

Y dado que el idioma principal en el que están siendo entrenados los modelos de lenguaje es el inglés, nuestro dominio del español sumado al enorme mercado de la comunidad hispanohablante de América Latina nos sitúa en una situación muy ventajosa. De hecho, además de los corpus en lengua escrita, Martorell afirma que también están trabajando en la derivada del lenguaje oral: “Nuestro banco de voces Aina ha convertido al catalán en la segunda del mundo con el corpus de voz más grande”.

Si tenemos en cuenta nuestras interacciones habladas con las máquinas tienen cada vez mayor relevancia, este esfuerzo podría convertirse en otro as en la manga para los futuros modelos de lenguaje made in Spain. Para el experto del BSC, el objetivo no es tanto competir contra las big tech, sino “garantizar que cualquier compañía o institución que quiera desarrollar una app basada en modelos de lenguaje tenga a su disposición corpus y modelos seguros y sin sesgos”.

Y concluye: “Nuestra suerte reside en que tenemos una enorme cantidad de información en español y las otras lenguas cooficiales de origen latino sobre la que construir corpus para crear modelos suficientemente grandes con los que podremos competir cuando tengamos suficiente capacidad computacional. No nos estamos quedando atrás”. Si tiene razón puede que consigamos que la economía y la industria españolas se vean obligadas a decretar su propio código rojo.

*‘200 millones de segundos’ es un proyecto de Esade y ‘Retina’ para entender algunos de los cambios tecnológicos más importantes del presente, como la inteligencia artificial y la computación cuántica, y el impacto que tendrán en la vida, la economía y la sociedad de aquí a 2030.

SOBRE LA FIRMA: Marta del Amo 

Nota:https://retinatendencias.com/

Te puede interesar