


Para entender la inteligencia artificial, primero debemos entendernos a nosotros mismos
11/12/2025




Mi columna en Invertia de esta semana se titula “¿Y tú? ¿Cómo piensas?”, y trata sobre una idea que me parece crucial para entender hacia dónde va la inteligencia artificial: el paisaje actual no está ni mucho menos consolidado. Lo que damos por hecho como si fuera una tecnología madura, desde los modelos de lenguaje a los asistentes conversacionales, sistemas que parecen pensar, no es más que una primera aproximación.
Hay investigadores trabajando en arquitecturas completamente distintas, inspiradas en cómo nuestro cerebro crea significado, aprende en capas y corrige sus propios errores. Las señales ya están ahí y muestran que lo que hoy vemos es solo el inicio de un viaje mucho más largo.
En los últimos meses han surgido trabajos muy sugerentes que cuestionan la estructura monolítica de los grandes modelos actuales. Investigaciones sobre la aparición de capacidades de razonamiento secuencial en modelos grandes sugieren que lo que considerábamos simple predicción estadística empieza a incorporar comportamientos más estructurados y jerárquicos, aunque todavía muy alejados de un pensamiento verdaderamente humano.
Por el lado de Google DeepMind también vemos señales claras de cambio: no solo construyen modelos multimodales, sino que experimentan con sistemas que son capaces de descubrir sus propios pasos de razonamiento y refinar su estructura interna, como ocurre en su línea de trabajo sobre self-discover, una vía que es todavía muy preliminar, pero que apunta directamente hacia formas más organizadas y jerárquicas de entender.
Lo mismo sucede en el campo de la inteligencia artificial neuro-simbólica, donde IBM está combinando redes neuronales con módulos de razonamiento explícito, una idea que hasta hace poco parecía anacrónica y que ahora vuelve con fuerza porque ofrece algo que los modelos actuales no pueden dar: interpretabilidad, modularidad y capacidad para trabajar en capas cognitivas.
E incluso fuera de la industria tecnológica clásica, publicaciones como Quanta Magazine vienen mostrando cómo la convergencia entre ciencias cognitivas e inteligencia artificial está llevando a repensar la arquitectura de los sistemas. La idea de que el cerebro es un conjunto organizado de procesos anidados que trabajan juntos para construir significado está comenzando a inspirar a laboratorios que buscan salir de la simple ampliación de parámetros y pasar a estructuras más profundas y realistas.
Si algo parece claro es que la inteligencia artificial está muy lejos de haberse estabilizado. Es posible que dentro de unos años los modelos actuales nos parezcan primitivos, del mismo modo que hoy vemos como juguete experimental lo que hace una década nos parecía revolucionario. Por eso, en la columna insisto en que no deberíamos asumir que la inteligencia artificial de ahora es un producto terminado. Los cambios que vienen serán sustanciales, probablemente conceptuales, y afectarán a cómo entendemos la memoria, el razonamiento, la interpretación y la creatividad en sistemas artificiales.
Que la próxima frontera tenga más parecido con procesos cognitivos humanos no significa que estemos cerca de una inteligencia artificial consciente, ni que vayamos a replicar el cerebro de nadie, pero sí implica que la tecnología caminará en direcciones que resultan más intuitivas para quienes intentan comprender cómo piensan las máquinas. Esto es fundamental: si queremos convivir con sistemas cada vez más potentes, debemos empezar por preguntarnos cómo pensamos nosotros. Sin ese paso previo, corremos el riesgo de antropomorfizar la tecnología, dar por sentado que «entiende» aquello que solo está imitando, o atribuirle capacidades que aún no tiene.
Lo que veremos en los próximos años no será una inteligencia artificial que alcanza súbitamente un nivel cerebral, sino muchas versiones distintas de inteligencia artificial explorando variantes del razonamiento. Algunas serán capaces de construir y revisar sus propios pasos internos, como sugiere DeepMind; otras serán modulares, como propone la línea neuro-simbólica; y otras podrían integrar mecanismos de memoria persistente y adaptación, como está experimentando OpenAI en sus desarrollos más recientes. Esta idea de memoria persistente es un paso hacia sistemas capaces de mantener un razonamiento y desarrollarlo en distintos hilos, a diferentes velocidades, un poco en la idea que Google comentaba en su ya famoso paper sobre nested learning.
Mi mensaje de fondo es que, si queremos adelantarnos a este futuro, no debemos quedarnos en la superficie. La pregunta que planteo en la columna, «¿cómo piensas tú?», no es una invitación introspectiva gratuita. Es un recordatorio de que la inteligencia artificial solo puede entenderse de forma adulta si primero entendemos nuestros propios procesos cognitivos. Pensar no es lineal, es un proceso anidado, contextual, simbólico, emocional y racional al mismo tiempo. Y todo apunta a que la próxima generación de sistemas artificiales intentará capturar algo de esa riqueza.
Por eso es esencial seguir de cerca trabajos como los que se han publicado recientemente sobre aprendizaje jerárquico o sobre representaciones multicapa en estructuras biológicas, que sugieren que la corteza procesa información en múltiples escalas temporales de forma jerárquica, porque muestran hacia dónde podría moverse la investigación en los próximos años. Básicamente, entender cómo pensamos.
Porque la inteligencia artificial que viene no será simplemente más grande, como creen algunos, ni seguirá necesariamente un modelo de tipo «bigger, better, faster, more!», sino más profunda. Y entender esa profundidad, humana y artificial, es la clave para no perdernos lo importante en esta transición: que el futuro no está escrito, y que lo determinaremos nosotros tanto como las máquinas.
Nota:https://www.enriquedans.com/
















