







Comencemos con una breve encuesta para responder a la pregunta del título.


¿Cuál de los siguientes eventos crees que sucederá antes?
a) Que nazca un ser humano con una mutación en el ADN realizada artificialmente.
b) Que un ser humano ponga un pie en Marte.
c) Que se desarrolle una inteligencia artificial general (AGI, por sus siglas en inglés).
El primer evento ya ha ocurrido. En 2018 el investigador chino He Jiankui anunció que usó la edición genética CRISPR en dos embriones humanos, naciendo gemelas supuestamente resistentes al sida. Luego se supo del nacimiento de una tercera niña. El experimento fue rechazado por la comunidad científica y Jiankui fue condenado a tres años de prisión.
Aunque aún no hemos pisado Marte, ya exploramos su superficie con robots. Una misión tripulada implicaría superar grandes desafíos técnicos, logísticos y financieros. El viaje duraría más de año y medio e implicaría planificar desde el lanzamiento hasta el regreso. Ahora bien, la definición del problema y los riesgos están claramente identificados.
En el caso de la AGI, el primer obstáculo es consensuar una definición. Sin ella, no se puede trazar un plan ni desarrollar una AGI. En esta definición compiten dos enfoques de dos grandes figuras de la disciplina: Alan Turing y Marvin Minsky.
La visión de Turing
La visión de Turing se basa en la apariencia: una máquina es más inteligente cuanto más se parece a un humano. Para él, una máquina pensante es aquella que supera el «test de Turing»; es decir, cuando un humano no puede distinguir si interactúa con una persona o una máquina. Según esta lógica, la AGI se lograría al crear una máquina indistinguible de un ser humano.
Esta idea coincide con cómo se representa la IA en la ficción, como HAL 9000 de 2001: Odisea en el espacio o los replicantes de Blade Runner, influencias clave en el imaginario popular sobre el futuro de la IA.
Los transhumanistas
Corrientes transhumanistas, como las de Ray Kurzweil o Nick Bostrom, defienden que crearemos «superinteligencias» que superarán a la humana y plantean la «singularidad» como ese punto hipotético.
Aunque generan muchas ideas especulativas y titulares llamativos, carecen de resultados basados en evidencia científica. Es más realista pensar que llegaremos antes a Marte, porque al menos sabemos cómo hacerlo.
Una preocupación más seria surge cuando esta visión de la AGI como «superinteligencia» influye en el debate público, políticas y legislación, generando un entorno inestable y difícil de manejar. Existe un amplio consenso en la necesidad de desarrollar una IA fiable y robusta.
A diferencia de la programación clásica, la IA aprende de datos mediante algoritmos de inferencia, generando funciones matemáticas que toman decisiones probabilísticas. El programador controla los datos, pero no la función resultante, lo cual complica el control, especialmente en modelos avanzados como los grandes modelos lingüísticos (LLM) tipo ChatGPT.
Sin embargo, que la IA sea compleja no significa que sea ingobernable.
Tras el lanzamiento de GPT-4 en 2023, surgieron reacciones diversas: desde iniciativas prudentes como la Cumbre de Seguridad de la IA en Bletchley Park, donde 28 países buscaron un consenso sobre IA segura, hasta respuestas más alarmistas como la carta abierta del Future of Life Institute pidiendo pausar el desarrollo de IA avanzada, o el manifiesto del Center for AI Safety que equiparó el «riesgo de extinción» por IA a amenazas como pandemias o guerra nuclear.
Este concepto de «riesgo existencial», firmado por figuras como Geoffrey Hinton, Bill Gates y los CEOs de OpenAI, Anthropic y DeepMind, tiene origen en las ideas de Bostrom sobre la «superinteligencia».
La visión de Minsky
La visión de Minsky evita la antropomorfización: para él, la IA es la ciencia de crear máquinas que realicen tareas que, hechas por humanos, requerirían inteligencia. El éxito se mide por la eficiencia en resolver problemas diversos. Así, una AGI sería un sistema capaz de enfrentar múltiples problemas complejos y aprender nuevos, sin necesidad de consciencia o intencionalidad, como los telares que cosen sin saberlo.
Esta visión coincide con la de OpenAI, que define la AGI como sistemas autónomos que superan a los humanos en la mayoría de trabajos valiosos. Sin embargo, aún no existen sistemas así. Por ejemplo, los LLM actuales apenas superan el 3 % del ARC Prize, una prueba clave pero no definitiva para considerar un sistema como AGI.
Conclusión
Entonces, ¿estamos cerca de construirlos? ¿Lo conseguiremos antes de pisar Marte?
El aprendizaje profundo, base actual de la IA, tiene limitaciones para generalizar, y necesita un cambio tecnológico para lograr razonamiento y sentido común, como señala Yann LeCun. Aunque la inversión en IA es masiva —como el programa Stargate con 500.000 millones de dólares—, no hay pruebas de que ese salto esté cerca. Por ello, es más probable que lleguemos antes a Marte que a una AGI funcional.
Según la «ley de Amara», tendemos a sobrestimar la tecnología a corto plazo e infravalorar su impacto a largo plazo. Esto se refleja en la IA, donde la AGI actúa como un «Macguffin» que impulsa avances, aunque su logro sea incierto.
Más allá de si se alcanza o no, la IA ya está transformando sectores como la comunicación, la programación o el diseño, generando cambios socioeconómicos profundos. No debemos prepararnos para la AGI, sino para un mundo «ultradigitalizado» y mediado por la IA en todos los ámbitos.
Pablo Haya, director del área de Business and Language Analytics en el Instituto de Ingeniería del Conocimiento (IIC), un centro I+D+i experto desde hace más de 35 años en el tratamiento y análisis de todo tipo de datos, el motor de la inteligencia artificial.
Nota:retinatendencias.com







