Qualcomm ha presentado su nueva generación de aceleradores de inferencia de inteligencia artificial (IA) para centros de datos: los Qualcomm AI200 y Qualcomm AI250, junto con racks completos basados en estas plataformas.
Estas soluciones están diseñadas para ofrecer rendimiento a escala de rack, gran capacidad de memoria y eficiencia energética líder, con el objetivo de redefinir la relación rendimiento por vatio y coste total de propiedad (TCO) en cargas de trabajo de IA generativa.
Aceleradores optimizados para IA generativa
El Qualcomm AI200 se presenta como una solución de inferencia a nivel de rack, especialmente optimizada para modelos LLM (Large Language Models) y LMM (Large Multimodal Models).
Cada tarjeta incorpora 768 GB de memoria LPDDR, lo que proporciona una capacidad de memoria superior y a menor coste, facilitando la escalabilidad y flexibilidad en tareas de inferencia IA de gran volumen.
El sistema está diseñado para maximizar el rendimiento y minimizar el consumo, ofreciendo un bajo TCO para proveedores de servicios en la nube e industrias que buscan desplegar IA generativa a gran escala.
Qualcomm AI250: salto generacional en memoria y eficiencia
El Qualcomm AI250 introduce una arquitectura de memoria cercana al procesamiento (near-memory computing), que supone un salto generacional en eficiencia y ancho de banda efectivo, superando en más de 10 veces la velocidad de acceso a memoria de generaciones anteriores.
Esta arquitectura permite una inferencia IA desagregada, optimizando la utilización del hardware y reduciendo drásticamente el consumo energético.
Ambos racks integran refrigeración líquida directa, PCIe para escalabilidad vertical, Ethernet para expansión horizontal y seguridad mediante computación confidencial. Cada rack alcanza un consumo máximo de 160 kW, manteniendo la eficiencia térmica bajo control.
Software, compatibilidad y disponibilidad
Los nuevos sistemas estarán soportados por una pila de software de grado hyperscaler, optimizada de extremo a extremo para inferencia de IA. Esta incluye soporte para frameworks de machine learning líderes, motores de inferencia, bibliotecas generativas y optimizaciones para modelos de lenguaje.
Además, ofrece despliegue con un solo clic de modelos de Hugging Face mediante la Qualcomm AI Inference Suite y la Efficient Transformers Library, garantizando una integración ágil en entornos corporativos.
Según Durga Malladi, vicepresidente senior de Qualcomm Technologies, “con AI200 y AI250 redefinimos lo posible en la inferencia de IA a escala de rack. Estas soluciones permiten desplegar IA generativa con un TCO sin precedentes, manteniendo la flexibilidad y seguridad que demandan los centros de datos modernos”.
Los Qualcomm AI200 y AI250 estarán disponibles comercialmente en 2026 y 2027, respectivamente. Qualcomm ha confirmado una hoja de ruta anual de actualizaciones centrada en ofrecer mayor rendimiento, eficiencia energética y mejor coste por vatio.
Vía: TechPowerUp


















