“La gente está empezando a hablar como ChatGPT”, advierte el experto en evolución del lenguaje Adam Aleksic

Actualidad22/08/2025
images (14)

“Las personas están empezando a hablar como ChatGPT”, advirtió Adam Aleksic en una columna para The Washington Post, donde analizó cómo el lenguaje generado por chatbots de inteligencia artificial está influyendo de manera creciente en la forma en que los humanos se comunican.

El autor del libro Algospeak: How Social Media Is Transforming the Future of Language (Algospeak: Cómo las redes sociales están transformando el futuro del lenguaje), conocido como el “nerd de la etimología” y especialista en la evolución del lenguaje, sostuvo que lo inquietante no es solo la sofisticación de estos sistemas, sino el hecho de que “las palabras sobrerrepresentadas en las respuestas de los chatbots están apareciendo cada vez más en la conversación humana”.

Lenguaje de la inteligencia artificial: cómo funciona y qué se pierde
 
Aleksic explicó que, aunque los usuarios de ChatGPT, Claude, Gemini y otros chatbots de inteligencia artificial creen que están interactuando en el mismo idioma, en realidad se trata de lenguajes distintos. Según detalló, “en vez de procesar el texto como un humano, el chatbot convierte tu mensaje en un embedding —un grupo de números representados en un ‘espacio vectorial’, algo así como coordenadas en un mapa”. 

El lingüista aclaró que, al igual que un mapa es una representación aplanada de un territorio, este embedding es una representación aplanada del lenguaje, lo que implica que “cierta cantidad de variación y contexto humano necesariamente se pierde”. 

El proceso de respuesta de las plataformas, según Aleksic, se basa en predicciones palabra por palabra, guiadas por los datos de entrenamiento y el aprendizaje por refuerzo, ambos con sesgos inherentes. “Lo que parece inglés para ti es en realidad un simulacro del habla humana real”, afirmó el autor en su columna.

Lo preocupante, subrayó, es que “ahora, con cientos de millones de personas interactuando regularmente con chatbots, los humanos que hablan inglés están empezando a hablar como el comunicador inhumano del otro lado”.

El caso de “delve” y otras palabras sobrerrepresentadas
Uno de los ejemplos más claros que expuso Aleksic es el uso desproporcionado de la palabra “delve” (“profundizar” o “indagar”) en los textos generados por ChatGPT, en comparación con el uso habitual en el inglés hablado o escrito por humanos. Citó investigaciones de Tom S. Juzek y Zina B. Ward de la Florida State University, quienes atribuyeron este fenómeno a “pequeños sesgos y errores en el proceso de retroalimentación humana que se acumulan con el tiempo”.

Asimismo, el autor explicó que los empleados encargados de revisar las salidas de los modelos de lenguaje suelen ser trabajadores de bajos ingresos en países como Nigeria y Kenia, donde “delve” se utiliza con mayor frecuencia que en el inglés estadounidense o británico. “Pequeñas sobrerrepresentaciones léxicas pueden haber sido reforzadas en el modelo —a veces incluso más que en el propio uso de los revisores”, escribió Aleksic, quien añadió que las condiciones laborales y la presión por el tiempo pueden haber hecho que los revisores no detectaran la frecuencia de “delve”, lo que llevó a una amplificación aún mayor.

También mencionó otros ejemplos de palabras sobrerrepresentadas en el idioma inglés, como “intricate” (“intrincado”), “commendable” (“encomiable”) y “meticulous” (“meticuloso”). Señaló que este exceso de uso ya está permeando la cultura global. Desde el lanzamiento de ChatGPT a finales de 2022, “la aparición de ‘delve’ en publicaciones académicas aumentó diez veces, a medida que los investigadores comenzaron a recurrir a la IA para redactar sus artículos”.

El propio autor confesó: “Solía disfrutar usar la palabra ‘delve’; ahora trato de evitarla”. Según expuso en el artículo de opinión, a medida que científicos y escritores se volvieron más conscientes de este fenómeno, intentaron “sonar menos como una IA”.

No obstante, la mayoría de las personas probablemente desconoce estos sesgos de los chatbots hacia ciertas palabras. Aleksic argumentó que los usuarios asumen que ChatGPT se expresa en un inglés “normal”, porque así lo sugiere la interfaz de usuario.

Además, creen que los textos cotidianos que encuentran también son inglés normal, aunque podrían haber sido generados por IA. Sobre esto, el lingüista advirtió: “Con el tiempo, resulta cada vez más fácil confundir la representación con la realidad”.

De la escritura al habla: cuando el vocabulario de la IA se integra
El fenómeno no se limita a la escritura. Aleksic citó un estudio publicado en Scientific American el mes pasado, que reveló que las personas comenzaron a decir “delve” con mayor frecuencia en conversaciones espontáneas. “Esto ya no es obra de la IA; hemos empezado a interiorizar sus sesgos y a repetirlos por nuestra cuenta”, sostuvo.

Incluso quienes intentan evitar las palabras más asociadas a ChatGPT no están exentos, ya que “tantas palabras están apareciendo con una frecuencia antinatural que no podemos evitarlas todas”. El especialista Aleksic se preguntó: “¿También se supone que dejemos de usar ‘inquiry’ (‘consulta’), otra palabra sobreutilizada por los chatbots? ¿O ‘surpass’ (‘superar’)? Hay demasiado que rastrear”.

Advirtió también que la tendencia a adoptar sin querer el vocabulario de los modelos de lenguaje probablemente aumentará, a medida que el círculo de textos generados por IA, textos humanos que no sabemos que son de IA y el habla humana real se acelera.

En el campo de la psicolingüística, explicó, se entiende que “la frecuencia de representación de una palabra afecta su disponibilidad en el léxico mental de las personas —el ‘diccionario’ de opciones posibles para usar en la conversación”. Esencialmente, “cuanto más vemos una palabra representada, más intuitivo resulta usarla nosotros mismos”.

Fronteras borrosas entre lenguaje humano y artificial

Aleksic reflexionó que es normal que nuestros mapas mentales del lenguaje evolucionen, pero ahora “estamos en un bucle de retroalimentación donde nuestros ‘mapas’ están convergiendo con los de los chatbots”. Ambos difieren del paisaje real —la inmensa variedad de formas en que los humanos hablan—, pero la confusión dificulta cada vez más distinguir entre el lenguaje humano genuino y el generado artificialmente.

“A medida que esta distinción se vuelve más difícil de discernir, seguiremos desdibujando las líneas de la realidad, usando cíclicamente esa confusión para construir nuestras nuevas realidades”, escribió el autor. Considerando que “a medida que los modelos de IA continúan entrenándose tanto con su propia producción como con la escritura humana influida por la IA, la omnipresencia del lenguaje de los modelos de lenguaje grande (‘LLM-speak’) solo se intensificará”.

Implicancias sociales y cognitivas de la transformación lingüística
Desde el punto de vista lingüístico, Adam Aleksic aclaró que no hay nada malo en esto: “La palabra ‘delve’ no es peor para tu cerebro que sus sinónimos”. Sin embargo, advirtió que el lenguaje es un presagio de cambios sociales más profundos.

“Existen muchas otras distorsiones mucho más insidiosas que también están codificadas en los modelos de lenguaje grande. Sesgos raciales, de género y políticos —todos estos probablemente se entrenan en los modelos de manera similar a los sesgos lingüísticos, pero son más difíciles de medir de manera definitiva”, sentenció con seguridad, sobre el futuro de estas tecnologías.

Nota:infobae.com

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email