Advanced Micro Devices (AMD) ha puesto cifras a su ambición. La compañía californiana prevé triplicar sus beneficios y alcanzar los 100.000 millones de dólares anuales en ingresos procedentes de chips para centros de datos en un plazo de cinco años. Esto se anunció en la jornada para analistas celebrada por la empresa en Nueva York, la primera en tres años, donde dejaron claro que la inteligencia artificial será el motor de su expansión.
Lisa Su, consejera delegada de AMD, explicó que el mercado de chips de IA podría alcanzar el billón de dólares antes de 2030, impulsado por la explosión de los servicios en la nube, los modelos de lenguaje a gran escala y las infraestructuras de IA generativa.
Reacción del mercado y efecto OpenAI
Tras la presentación, las acciones de AMD subieron un 4 % en el mercado after-hours, compensando parte de la caída del 2,7 % registrada durante la sesión, hasta cerrar en 237,52 dólares. Desde principios de octubre, el valor acumula un repunte del 16 %, impulsado por el acuerdo plurianual con OpenAI, que podría traducirse en decenas de miles de millones de ingresos recurrentes.
Aunque el pacto no amenaza directamente el dominio de Nvidia, sí refuerza la credibilidad tecnológica de AMD y la confianza del mercado en su estrategia. La dirección defiende que su posición en centros de datos y su ritmo de innovación le permitirán mantener un crecimiento sostenido en los próximos ejercicios.
Objetivos financieros y ritmo de expansión
Según la directora financiera, Jean Hu, AMD prevé un crecimiento anual del 35 % en el conjunto del negocio y del 60 % en su división de centros de datos durante los próximos tres a cinco años. El beneficio por acción podría alcanzar los 20 dólares, frente a los 2,68 $ estimados por LSEG para 2025.
Estas previsiones suponen un punto de inflexión para el fabricante, decidido a recortar distancias con Nvidia en el lucrativo mercado de chips de IA, donde la competencia se ha convertido en una carrera de velocidad e integración tecnológica.
Nuevas generaciones de chips y compras estratégicas
La próxima gran jugada de AMD llegará en 2026 con la serie MI400, una nueva familia de chips de inteligencia artificial diseñados para aplicaciones científicas y de IA generativa. La empresa también planea lanzar su propio rack de servidores completo, una propuesta que competirá directamente con el sistema GB200 NVL72 de Nvidia.
En paralelo, AMD ha reforzado su ecosistema con adquisiciones centradas en IA, como la compra del fabricante de servidores ZT Systems y startups especializadas en software para ejecutar modelos de IA, entre ellas MK1. El objetivo, según su director de estrategia Mat Hein, es asegurar talento y software clave que amplíen su capacidad de desarrollo.
Un mercado en plena ebullición
La coyuntura juega a favor. La demanda global de chips de alto rendimiento crece al ritmo de la adopción masiva de la IA generativa y del aumento del gasto en servicios en la nube. El propio Jensen Huang, CEO de Nvidia, estima que la infraestructura global de IA podría alcanzar entre 3 y 4 billones de dólares para 2030.
AMD también se beneficia del aumento del gasto corporativo en soluciones de IA para centros de datos, un segmento que sostendrá la mejora de sus ingresos en el cuarto trimestre y a lo largo del próximo año fiscal.
El desafío de la próxima década
La estrategia de AMD encarna una tendencia imparable: la convergencia entre hardware y software de inteligencia artificial como eje del crecimiento tecnológico. La integración vertical (desde los chips hasta las herramientas de desarrollo) se ha convertido en una ventaja competitiva esencial.
Para los analistas, la evolución de AMD será uno de los termómetros clave del nuevo ciclo tecnológico. Si logra ejecutar su hoja de ruta y mantener el ritmo de innovación, podría pasar de ser el eterno segundo a ocupar un papel protagonista en la infraestructura digital global. ¿Podrá AMD romper el dominio de Nvidia en la era de la inteligencia artificial? El mercado empieza a apostar que sí.
