Durante la conferencia Cloud Next 2025, Google presentó oficialmente su nuevo chip de IA dedicado, llamado Ironwood. Se trata de la séptima generación de TPUs de la compañía y, además, es la primera optimizada exclusivamente para inferencia, es decir, para ejecutar modelos de IA que ya han sido entrenados.
Este nuevo procesador está enfocado en mejorar el rendimiento de los modelos en producción, algo fundamental en servicios como búsquedas, recomendaciones o generación de contenido. Según Amin Vahdat, vicepresidente de Google Cloud, «Ironwood es nuestra TPU más potente, productiva y energéticamente eficiente hasta la fecha. Está diseñada para acelerar la inferencia de modelos de IA a escala de infraestructura en la nube.»
Google presenta Ironwood, su nuevo chip de IA.
Con este movimiento, Google se suma con más fuerza a la competencia por liderar el mercado de chips de IA para la nube, actualmente dominado por NVIDIA. Sin embargo, tanto Amazon (con sus chips Trainium e Inferentia) como Microsoft (con Cobalt 100 en Azure) ya tienen sus propias soluciones. Ironwood busca destacar con una combinación de alta potencia de cómputo, eficiencia energética y baja latencia.
En términos técnicos, cada chip Ironwood alcanza un rendimiento de 4.614 teraflops, y puede trabajar en clústeres de hasta 9.216 unidades, lo que se traduce en una capacidad total de 42,5 exaflops. Además, cada unidad incorpora 192 GB de RAM dedicada con un ancho de banda de 7,4 Tbps, y un núcleo SparseCore especializado para manejar sistemas de clasificación y recomendaciones a gran escala.
Ironwood estará disponible como parte de la infraestructura de Google Cloud, en forma de servidores con 256 TPUs y clústeres modulares de miles de chips. Todo esto permitirá a empresas e investigadores ejecutar modelos de IA complejos de forma más rápida y con menor consumo energético.
Fuente: Google