Qualcomm ha decidido mover ficha en el tablero de la inteligencia artificial para centros de datos y ha anunciado sus nuevos chips AI200 y AI250, diseñados para configuraciones a escala de rack. Una noticia que, por cierto, hizo subir sus acciones un 20% en la jornada de ayer lunes, llegando a alcanzar los 206 dólares. El final de la jornada supuso un aumento del 11% cotizando QCOM a $187,68.
Lo más llamativo no es solo la entrada en un terreno dominado por gigantes como NVIDIA y AMD, sino la forma en que lo hacen. La compañía ha optado por utilizar memoria LPDDR integrada, la misma familia de memoria que encontramos en los teléfonos móviles, en lugar de la habitual HBM (High Bandwidth Memory) que prefieren sus competidores.
Esta decisión, que a primera vista parece sacada de la chistera, tiene una lógica sólida. Qualcomm argumenta que este método permite instalar una cantidad mucho mayor de memoria, hablando de hasta 768 GB por acelerador. Su intención es reducir el coste energético y monetario asociado al movimiento de datos, algo que han denominado un sistema de «memoria cercana».
Entre las ventajas de usar LPDDR podemos decir que son más eficiente en cuanto a consumo eléctrico, gastando menos energía por bit transferido. También son más económicas que los costosos módulos HBM. Además, permite una alta densidad de memoria, lo cual es útil para tareas de inferencia, y su gestión térmica es más sencilla, ya que disipa menos calor.
Chips AI200 y AI250: Un equilibrio entre capacidad y velocidad para la inferencia
Sin embargo, el principal peaje a pagar es un menor ancho de banda de memoria comparado con las soluciones HBM. Esto, junto a una latencia superior debido a una interfaz más estrecha, sitúa a estos chips en un nicho concreto.
Qualcomm no pretende competir en el entrenamiento de modelos de lenguaje masivos, donde NVIDIA sigue llevando la batuta. La intención de Qualcomm es ofrecer una opción sumamente eficaz para la inferencia, es decir, para ejecutar aplicaciones de IA ya entrenadas. Para esa tarea, la capacidad de memoria es a menudo más determinante que el ancho de banda puro.
Otro punto de debate es cómo se comportará esta pila de memoria, más propia de dispositivos de consumo, en el entorno hostil de un servidor, operando 24 horas al día, 7 días a la semana, bajo altas temperaturas.
Más allá de la memoria, los chips AI200 y AI250 vendrán preparados con refrigeración líquida directa, conectividad PCIe y Ethernet, y utilizarán las unidades de procesamiento neuronal (NPU) Hexagon de la casa.
También, su consumo energético a nivel de rack, fijado en 160 kW, es una cifra bastante contenida para los estándares actuales.
Esta orientación hacia la inferencia es una tendencia que otros fabricantes, como Intel, también están explorando. Qualcomm parece haber identificado que este segmento del mercado está ganando mucho peso.
La disponibilidad comercial de estos nuevos productos está programada para 2026 (el AI200) y 2027 (el AI250). Y ya tienen un cliente de peso: Humain, una startup de inteligencia artificial respaldada por el fondo soberano de Arabia Saudita, que desplegará 200 megavatios de estos nuevos racks de IA a partir de 2026.