Inteligencia artificial abierta: la nueva frontera

Actualidad - Internacional23/08/2025
AI-Open-Source-Dall·E

La inteligencia artificial está experimentando un giro cultural y estratégico de enorme calado que ya anticipé hace algún tiempo: más allá de la competición por la supremacía tecnológica, lo verdaderamente transformador podría encontrarse en lo abierto. En los últimos meses, China ha liderado con fuerza esta narrativa, lanzando modelos como DeepSeek, Qwen y MiniMax, cuyos pesos están disponibles sin restricciones para desarrolladores de todo el mundo. Este enfoque no solo ha acelerado el desarrollo colaborativo, sino que los ha colocado en posiciones destacadas en rankings globales.

Compañías como Hugging Face y Mistral, entre otros actores, han comprendido que la apertura genera ecosistemas sólidos y resilientes. En ese escenario, advirtiendo que los Estados Unidos están subestimando la amenaza que supone el dominio de China en el ámbito del código abierto, OpenAI se ha visto impulsado a revisar su estrategia. El resultado: el lanzamiento de gpt‑oss‑120b y gpt‑oss‑20b, sus primeros modelos de open weights desde GPT‑2, disponibles bajo licencia Apache 2.0.

¿Por qué este movimiento es relevante? Porque no se trata solo de democratizar el acceso, sino de intentar reconquistar influencia en el mundo de la inteligencia artificial. Los modelos chinos estaban conquistando terreno global, respaldados por gobiernos y empresas, y gracias a su naturaleza abierta podían integrarse en ecosistemas nacionales y extranjeros con facilidad. OpenAI, consciente de esta amenaza simbólica y estratégica, se centró en responder con modelos que no solo entregan pesos, sino también arquitectura eficiente, capacidades razonadas avanzadas (como razonamiento, uso de herramientas y generadores de cadena de pensamiento), así como estándares robustos de seguridad, flexibilidad y razonamiento avanzado, en un intento por redefinir el estándar global.

Desde la perspectiva técnica, gpt‑oss‑120b, con cerca de 117,000 millones de parámetros, utiliza una arquitectura de Mixture‑of‑Experts (MoE), con ciento veintiocho expertos por capa de los cuales solo cuatro se activan por token, permitiendo eficiencia y razonamiento profundo. El otro modelo más modesto, gpt‑oss‑20b con apenas veinte mil millones de parámetros activados, logra un equilibrio sorprendente entre rendimiento y bajo consumo de recursos, incluso permitiendo ejecución local en hardware accesible.

Y esto es muy relevante: democratizar no equivale a simplificar, sino a ofrecer la potencia de razonamiento más allá del alcance de centros de datos centralizados. El impacto podría ser tan disruptivo como lo fue el código abierto para el software tradicional. Sin embargo, aún hay retos. Algunos análisis independientes muestran que, en puntuaciones puras, los modelos chinos como DeepSeek R1 y Qwen3 superan ligeramente al gpt‑oss‑120b en índices como el Intelligence Index. Esto sugiere que, aunque OpenAI ha cerrado parte de la brecha, la carrera continúa.

Este enfrentamiento entre China y OpenAI no se mide únicamente en líneas de código, sino en modelos de desarrollo, colaboración y estandarización. China ha construido un ecosistema robusto en torno a lo abierto, permitiendo a entidades locales adaptarlos dentro de sus plataformas, incluso bajo restricciones geopolíticas.

El futuro de la IA será abierto no solo porque conviene por eficiencia y por adopción, sino porque aquel que controle lo abierto forjará la arquitectura de referencia, desde la pedagogía hasta las regulaciones. La libertad de inspección, personalización y mejora nos encamina, sin duda, hacia una era donde la inteligencia artificial no será solo más poderosa, sino más transparente, más distribuida y, esperemos, también más responsable.

Nota: https://www.enriquedans.com/

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email