La carrera por dominar la inferencia en inteligencia artificial entra en una nueva fase. Nvidia ha alcanzado un acuerdo para licenciar tecnología de Groq y, al mismo tiempo, incorporar a la cúpula directiva de la startup, incluido su fundador y consejero delegado. No es una adquisición. Es una jugada quirúrgica para acelerar capacidades en el tramo del mercado que más crece: hacer que los modelos ya entrenados respondan más rápido, con menor coste y menos consumo energético.
El pacto, confirmado por Groq en su blog corporativo, incluye una licencia no exclusiva de su tecnología y la incorporación de Jonathan Ross, fundador y hasta ahora CEO, junto a Sunny Madra, presidente de la compañía, y otros perfiles clave de ingeniería. Ross no es un desconocido en el sector. Fue una de las piezas del arranque del programa de chips de IA de Google, experiencia que ahora aterriza en Nvidia en un momento crítico.
Este tipo de acuerdos se ha vuelto frecuente entre las grandes tecnológicas. Licenciar tecnología y fichar talento permite avanzar rápido sin pasar por una compra completa, con menos fricción regulatoria y mayor flexibilidad. Groq, por su parte, seguirá operando como empresa independiente, con Simon Edwards como nuevo CEO y su negocio de servicios en la nube intacto. Los términos financieros no se han hecho públicos.
¿Por qué importa tanto la inferencia? Porque es donde se multiplican las peticiones de usuarios. Entrenar un modelo es caro y concentrado en el tiempo. Ejecutarlo millones de veces al día es un desafío operativo constante. Nvidia domina el entrenamiento, pero en inferencia el tablero está más abierto y la competencia aprieta, desde Advanced Micro Devices hasta startups especializadas como Groq o Cerebras. El movimiento busca cerrar esa brecha.
Groq ha ganado visibilidad por una arquitectura poco convencional. Prescinde de memorias externas de alto ancho de banda y apuesta por SRAM integrada. El resultado es una latencia muy baja en tareas como chatbots y sistemas de respuesta en tiempo real. El peaje es conocido: limita el tamaño de los modelos que pueden ejecutarse. Aun así, en escenarios concretos, el rendimiento compensa. Es el tipo de enfoque que interesa cuando cada milisegundo cuenta.
El mercado ha premiado esa propuesta. En septiembre, Groq cerró una ronda de 750 millones de dólares que llevó su valoración a 6.900 millones, más del doble que un año antes. No es casualidad que Nvidia quiera esa tecnología cerca y, sobre todo, a las personas que la diseñaron.
La operación encaja en un patrón más amplio. En los últimos años, gigantes como Microsoft, Meta o Amazon han firmado acuerdos de licencia y fichajes selectivos con startups de IA. La lógica es clara: sumar capacidades sin absorber riesgos completos. Hasta ahora, los reguladores no han revertido este tipo de pactos, aunque el escrutinio crece.
Desde Nvidia no se han dado detalles adicionales. Fuentes cercanas confirman la licencia y los fichajes. La compañía insiste en que su estrategia está preparada para un mercado que se desplaza del entrenamiento a la inferencia. Jensen Huang lo ha repetido: el valor se moverá hacia la eficiencia, la velocidad y la escala de ejecución.
Para Groq, el reto será doble. Mantener su identidad y su hoja de ruta mientras parte de su núcleo se integra en Nvidia. Seguir demostrando que su arquitectura tiene hueco más allá de casos de uso muy concretos. Para Nvidia, el desafío es integrar rápido y convertir esa ventaja técnica en producto y cuota.
En términos prácticos, el acuerdo apunta a varias consecuencias inmediatas:
- Refuerzo de la oferta de inferencia de Nvidia con ideas y técnicas probadas en producción.
- Mayor presión competitiva sobre rivales en latencia y coste por consulta.
- Señal al mercado: la inferencia es el próximo campo de batalla.
No es una compra espectacular ni un anuncio grandilocuente. Es algo más efectivo: talento, licencia y foco. En la IA, eso suele marcar la diferencia.
