
Amazon Web Services (AWS) dio a conocer detalles de su operación de chips personalizados, mostrando el trabajo que realiza en sus instalaciones de Annapurna Labs en Austin, Texas, donde diseña y prueba sus procesadores de inteligencia artificial Trainium. Este movimiento se produce en un contexto de fuerte inversión y alianzas estratégicas que buscan posicionar a la compañía como un competidor directo en el mercado global de infraestructura para IA.
La presentación ocurre semanas después de que Amazon anunciara una inversión de US$50 mil millones en OpenAI, reforzando el papel de los chips Trainium dentro de su estrategia tecnológica. Este acuerdo incluye un compromiso de consumo de capacidad de cómputo de 2 gigavatios en Trainium por parte de OpenAI, además de convertir a AWS en su proveedor de nube de terceros exclusivo para su plataforma empresarial.
El respaldo de OpenAI representa uno de los apoyos más relevantes a la tecnología de chips de Amazon. A esto se suma la ampliación de su acuerdo de servicios en la nube por US$100 mil millones durante ocho años, lo que refuerza la relación entre ambas compañías y consolida la posición de AWS en el ecosistema de inteligencia artificial.
En paralelo, la competencia en el sector se intensifica, especialmente frente a Nvidia, líder en el mercado de chips para IA. La apuesta de Amazon busca ofrecer una alternativa basada en eficiencia y costos, aspectos clave para empresas que entrenan y ejecutan modelos de inteligencia artificial a gran escala.

Actualmente, AWS ha desplegado 1.4 millones de chips Trainium2, los cuales ya están completamente utilizados y alimentan gran parte de las cargas de trabajo en su servicio de IA Bedrock, utilizado por más de 100,000 empresas. Entre los usuarios destacados se encuentra Anthropic, cuyo proyecto Rainier alberga más de 500,000 chips y ejecuta modelos avanzados como Claude.
Otras grandes tecnológicas también han comenzado a adoptar el hardware de AWS. Apple utiliza chips de Amazon para servicios de búsqueda y evalúa el uso de Trainium2 para el entrenamiento de modelos de inteligencia artificial, con expectativas de mejorar la eficiencia hasta en un 50%.
En cuanto a innovación, los nuevos chips Trainium3 introducen mejoras significativas, como mayor potencia de procesamiento (hasta 4.4 veces más que la generación anterior) y tecnologías que reducen la latencia en la comunicación entre chips. Además, permiten configuraciones de enfriamiento tanto por aire como por líquido, adaptándose a distintos entornos de centros de datos.

Uno de los principales atractivos de esta tecnología es el ahorro en costos. AWS asegura que las empresas pueden reducir hasta en un 50% los gastos en comparación con el uso de GPU tradicionales para el entrenamiento de modelos. Según estimaciones internas, el uso de estos chips podría disminuir los costos de desarrollo y operación de IA generativa hasta en un 40%.
El negocio de chips personalizados ya representa más de US$10 mil millones en ingresos anuales para Amazon, según su CEO, Andy Jassy. La compañía ya trabaja en la próxima generación, Trainium4, que promete multiplicar por seis la capacidad de procesamiento actual, lo que anticipa una nueva fase en la competencia tecnológica.
En conjunto, la estrategia de Amazon refleja un esfuerzo por reducir la dependencia de proveedores externos y posicionarse como un actor clave en la infraestructura de inteligencia artificial, en un mercado cada vez más competitivo y estratégico a nivel global.
