Intel y Google refuerzan CPUs e IPUs en la nube de IA

Intel y Google refuerzan CPUs e IPUs en la nube de IA

Cuando se habla de infraestructura para inteligencia artificial, casi toda la atención se va a las GPUs y aceleradores. Intel y Google quieren recordar que la nube de IA también depende de piezas menos vistosas: CPUs para orquestar, procesar datos y sostener servicios generales, e IPUs para descargar tareas de red, almacenamiento y seguridad.

El 9 de abril de 2026, Intel anunció una colaboración multianual con Google para avanzar en infraestructura de IA y nube. El acuerdo mantiene a los procesadores Intel Xeon dentro de Google Cloud para cargas de IA, inferencia y uso general, y amplía el codesarrollo de IPUs basadas en ASICs personalizados.

La IA corre sobre sistemas, no sobre un solo chip

El mensaje central de Intel es simple: escalar IA requiere sistemas balanceados. Las GPUs pueden ejecutar gran parte del cálculo intensivo de modelos, pero alrededor de ellas hay coordinación, transferencia de datos, seguridad, virtualización, almacenamiento, red y servicios de control. Si esas capas fallan o consumen demasiados recursos, el acelerador más potente queda esperando.

Google Cloud ya usa procesadores Intel Xeon en instancias optimizadas para diferentes cargas, incluidas C4 y N4 con Xeon 6. A la vez, las IPUs permiten quitar trabajo al CPU principal. En lugar de que el procesador anfitrión se encargue de tareas de infraestructura, una unidad especializada puede manejar funciones de red, almacenamiento y seguridad, mejorando utilización y previsibilidad.

La nube se vuelve heterogénea

La palabra clave es heterogeneidad. Los centros de datos de IA ya no son una sola clase de máquina repetida. Mezclan CPUs, GPUs, TPUs, NPUs, IPUs, redes de alta velocidad, memoria especializada y software de orquestación. La eficiencia aparece cuando cada componente hace lo que mejor sabe hacer.

Para Intel, el anuncio con Google también es una forma de defender el lugar de Xeon en un mercado que parece dominado por aceleradores. Para Google, es una manera de seguir ajustando infraestructura a escala global sin depender de una sola arquitectura.

Lo interesante es que la pelea de la IA no ocurre únicamente en el modelo visible al usuario. También se libra en decisiones de data center que nadie ve: qué chip mueve paquetes, qué unidad cifra tráfico, qué procesador coordina inferencia, qué sistema reduce latencia. En esa capa silenciosa se decide cuánto cuesta realmente cada respuesta de IA.

Fuente original: Intel

Fuente: Intel