OpenAI ha empezado a mirar más allá de Nvidia. No por una cuestión ideológica ni por un giro estratégico radical, sino por algo mucho más concreto: el rendimiento real de algunos chips en tareas clave de inferencia no estaría cumpliendo las expectativas. Así lo han trasladado a Reuters ocho fuentes con conocimiento directo de la situación, introduciendo un nuevo foco de tensión en una de las alianzas más influyentes del actual ecosistema de la inteligencia artificial.
La inferencia, es decir, el momento en el que un modelo ya entrenado responde a una consulta, se ha convertido en el verdadero cuello de botella de la IA a escala. No es el entrenamiento lo que más preocupa ahora a empresas como OpenAI, sino la capacidad de ofrecer respuestas rápidas, consistentes y rentables a millones de usuarios al mismo tiempo. Un ejemplo sencillo: no es lo mismo entrenar un modelo durante semanas que garantizar que ese modelo responda en milisegundos cuando alguien pide ayuda para programar o resolver un problema complejo.
El nuevo campo de batalla: la inferencia
Durante años, Nvidia ha dominado el mercado gracias a sus GPU, especialmente eficaces en el entrenamiento de grandes modelos. Ese liderazgo no está en discusión. El problema surge cuando el foco se desplaza hacia la inferencia, donde el coste, la latencia y la eficiencia energética pesan tanto como la potencia bruta.
Según varias de las fuentes citadas por Reuters, OpenAI no estaría satisfecha con la velocidad a la que algunos de los chips más recientes de Nvidia generan respuestas en determinados escenarios. Entre ellos figuran casos de uso intensivos como el desarrollo de software asistido por IA o la comunicación entre sistemas de agentes autónomos, donde cada milisegundo cuenta.
La situación es delicada porque llega en pleno proceso de negociación entre ambas compañías. En septiembre, Nvidia anunció su intención de invertir hasta 100.000 millones de dólares en OpenAI, una operación que permitiría al fabricante de chips tomar participación en la empresa y, al mismo tiempo, garantizarle a OpenAI acceso prioritario a hardware avanzado. Meses después, el acuerdo sigue sin cerrarse.
Negociaciones largas y necesidades cambiantes
Una de las claves del retraso estaría en la propia evolución de OpenAI. Sus cambios en la hoja de ruta de productos habrían modificado sus necesidades de computación, complicando unas conversaciones que inicialmente parecían encaminadas. Mientras tanto, la compañía no se ha quedado quieta.
OpenAI ha firmado acuerdos con otros proveedores, entre ellos AMD, para incorporar GPU diseñadas específicamente para competir con las de Nvidia. No se trata de un abandono, sino de una diversificación. El objetivo, según una de las fuentes, sería que en el futuro alrededor de un 10% de las necesidades de inferencia puedan cubrirse con hardware alternativo.
Desde Nvidia, el mensaje ha sido de calma. Su consejero delegado, Jensen Huang, calificó de “absurdas” las informaciones sobre fricciones y reiteró que la inversión en OpenAI sigue sobre la mesa. La compañía defiende que sus soluciones continúan ofreciendo el mejor rendimiento y el menor coste total de propiedad a gran escala, un argumento clave para clientes que operan centros de datos masivos.
Mensajes públicos y realidades privadas
OpenAI también ha tratado de rebajar el tono públicamente. Un portavoz de la empresa aseguró que siguen dependiendo de Nvidia para la mayor parte de su infraestructura de inferencia y que, a día de hoy, los chips del fabricante estadounidense ofrecen el mejor rendimiento por dólar.
El propio Sam Altman intervino en X para subrayar que Nvidia fabrica “los mejores chips de IA del mundo” y que OpenAI espera seguir siendo un cliente de gran volumen durante mucho tiempo. Un mensaje conciliador que, sin embargo, no elimina el ruido de fondo.
Startups, memoria integrada y velocidad
En ese contexto, OpenAI ha explorado conversaciones con startups especializadas como Cerebras y Groq, cuyos chips apuestan por arquitecturas distintas a las GPU tradicionales. Algunas de estas soluciones integran grandes cantidades de memoria directamente en el chip, reduciendo los tiempos de acceso y acelerando la inferencia en aplicaciones como chatbots.
Un ejemplo práctico: en lugar de mover datos constantemente entre memoria y procesador, el modelo trabaja con todo “a mano”, ganando velocidad. Este enfoque resulta especialmente atractivo para sistemas que necesitan razonar en tiempo real.
Sin embargo, no todas las conversaciones llegaron lejos. Nvidia cerró un acuerdo de licencia con Groq valorado en unos 20.000 millones de dólares, lo que interrumpió las negociaciones entre Groq y OpenAI, según una de las fuentes.
Un mercado que cambia de prioridades
Lo que está ocurriendo no es un pulso aislado, sino un síntoma de algo mayor. A medida que los modelos de IA se estabilizan, la inferencia y el razonamiento se convierten en la fase crítica. El entrenamiento sigue siendo importante, pero el valor económico se juega cada vez más en la capacidad de responder rápido, bien y barato.
Para OpenAI, diversificar proveedores no es solo una cuestión técnica. Es una forma de reducir dependencia en un mercado donde la demanda de chips supera a la oferta y donde cada decisión de hardware puede condicionar la velocidad de innovación.
Nvidia sigue siendo el actor dominante. Pero el hecho de que OpenAI explore alternativas indica que el tablero se está moviendo. Y que, en la próxima etapa de la IA, no ganará solo quien tenga más potencia, sino quien sepa ofrecer la respuesta más rápida cuando el usuario la necesita.
