OpenAI y la fabricación de chips

Actualidad - Internacional13 de febrero de 2025
Chip-anthropomorfized-Dall·E

Una exclusiva de Reuters afirma que OpenAI está finalizando el diseño de su primer chip de diseño propio, con el objetivo de tenerlo terminado a finales de este año 2025 y tratar de reducir su fuerte dependencia de los chips de Nvidia.

La idea, aparentemente, es terminar el diseño a finales de este año con el fin de iniciar su producción masiva en el 2026. Habitualmente, una ronda de producción típica suele costar en torno a decenas de millones de dólares, y se necesitan aproximadamente seis meses para lograr producir un chip terminado, a menos que OpenAI esté pensando en pagar sustancialmente más por acceder a un proceso de fabricación acelerado.

Por supuesto, no existe ninguna garantía de que el chip producido funcione adecuadamente y según lo esperado en la primera ronda de producción y, en caso de surgir algún tipo de problema, la empresa tendría que diagnosticar el problema, rehacer las partes del diseño afectadas, y repetir el proceso de producción.

El diseño y la producción de chips a medida de tareas concretas es enormemente complicado y costoso. Compañías con una fuerte experiencia en el ámbito de la tecnología como Microsoft o Meta lo han intentado anteriormente durante años, y han terminado fracasando. Por otro lado, los chips diseñados para tareas específicas suelen dar lugar a una flexibilidad menor frente a cambios tecnológicos y tendencias, dado que la dimensión de una compañía que no se dedica específicamente a esa tarea suele ser obviamente inferior a la que posee un especialista como Nvidia.

Como ventajas potenciales más significativas en el diseño de hardware propio, por tanto, está la posible optimización del rendimiento, la menor dependencia de Nvidia, la creación de una posible ventaja competitiva y unos hipotéticos ahorros a largo plazo derivados de la reducción de costes operativos y de una mayor eficiencia. Sin embargo, existen también riesgos potenciales elevados: el primero y evidente, el alto coste y la enorme complejidad del desarrollo. Pero además, hay una gran posibilidad de incurrir en un fuerte desfase temporal debido al tiempo que se invierte en el diseño y fabricación de los chips, un posible desfase a medida que Nvidia y otros siguen innovando, y por supuesto, un fuerte coste de oportunidad: desviar recursos a la fabricación de chips puede restar atención a la investigación en mejores modelos, en su optimización de modelos o en la construcción de alianzas estratégicas, algo que en un mercado tan dinámico como este puede llegar a ser crucial.

El rediseño de los chips para hacerlos más aptos para un tipo específico de tareas es únicamente una de las vías para lograr avanzar en el ámbito de la inteligencia artificial, y no necesariamente la más prometedora. Frente a la idea de disponer de más chips y más potentes, está la de innovar con los recursos disponibles modificando los procedimientos matemáticos aplicados, como parcialmente hizo Deepseek: menos chips, no de última generación, pero un proceso de entrenamiento del algoritmo que utilizaba reinforcement learning frente a otros modelos preexistentes, y lo hacía sin recurrir a afinamiento mediante humanos, sensiblemente más caro.

De hecho, la apuesta de China parece apuntar en esa dirección: utilizar chips fabricados en China, con arquitecturas que no logran bajar de los diez nanómetros, pero lograr mejoras que aprovechen mejor esas arquitecturas.

Además, existen también otras vías, como la colaboración con fabricantes (AMD, Intel o startups como Cerebras) para co-desarrollar aceleradores específicos, compartiendo costes y aprovechando su experiencia en hardware; un posible enfoque «software-first» que plantee exprimir el rendimiento optimizando frameworks y modelos en GPUs existentes que retrase o incluso evite la inversión en hardware a medida; o un modelo híbrido que pruebe chips personalizados que ofrecen proveedores de la nube (p.ej., Trainium o Inferentia) como forma de evaluar el rendimiento sin asumir desde el principio toda la inversión y el riesgo.

Los chips a medida pueden parecer una propuesta seductora, pero resulta brutalmente arriesgada para una empresa que, como OpenAI, ha nacido y crecido centrada en el software. Una aproximación más prudente podría pasar por alianzas con fabricantes ya consolidados, inversiones puntuales en co-optimización hardware-software o la exploración de ecosistemas emergentes (p.ej., RISC-V).

De momento, pretender cortar de raíz la dependencia de Nvidia podría ser prematuro si no hay un compromiso a largo plazo – con un presupuesto colosal y una gran tolerancia al riesgo – para impulsar esta estrategia. Al fin y al cabo, la carrera de la IA se dirime en la innovación algorítmica y la escalabilidad de la infraestructura, no solo en el hardware, por lo que conviene mantener el equilibrio justo entre ambas dimensiones. Y no olvidemos, además, que los chips de TSMC, que con total probabilidad serían fabricados en sus instalaciones más punteras en Taiwan, estarían sujetos a los aranceles a los chips fabricados fuera de los Estados Unidos ideados por el Idiot-in-Chief…

Lanzarse al diseño de chips nuevos, en un momento en que las mayores mejoras recientes han venido precisamente de cambios en las metodologías de entrenamiento y con innumerables ideas de optimización que parten el ámbito de las matemáticas parece una apuesta enormemente arriesgada, y más mientras la compañía tiene evidentes problemas de rentabilidad y se dedica a anunciarse en el intermedio de la Super Bowl. Si además estás metido en líos con respecto a la naturaleza de tu compañía e incluso a su posible adquisición, peor aún.

Que puedas hacer rondas de financiación prácticamente ilimitadas y que cada vez que abras la mano aparezca alguien que deja caer dinero en ella no garantiza que seas capaz de optimizar esos recursos – de hecho, las teorías de la innovación frugal apuntan a que el incentivo para esa optimización se reduce con la disponibilidad exagerada de recursos – y tengo muy serias dudas sobre que lanzarse a competir con compañías como ARM o Nvidia en el diseño y arquitectura de chips de última generación sea la mejor de las ideas…

Nota: https://www.enriquedans.com/

Te puede interesar