Jensen Huang afirma que los agentes de IA multiplican por 1.000 el consumo de tokens

Jensen Huang afirma que los agentes de IA multiplican por 1.000 el consumo de tokens

El CEO de NVIDIA, Jensen Huang, ha abordado recientemente el impacto del auge de los agentes de inteligencia artificial durante una conferencia celebrada en el evento tecnológico organizado por Morgan Stanley. En su intervención, el directivo señaló que la industria se encuentra en un nuevo punto de inflexión impulsado por los agentes de IA, y destacó especialmente el papel de OpenClaw, al que calificó como uno de los lanzamientos de software más importantes de nuestro tiempo.

Durante la conferencia, Huang explicó que el ecosistema de la inteligencia artificial puede entenderse como una estructura compuesta por cinco capas, donde una de las más relevantes en términos de retorno económico para hiperescaladores y laboratorios de IA avanzada es la capa de aplicaciones. En este nivel es donde herramientas como OpenClaw y los agentes de IA empiezan a demostrar su verdadero potencial, ya que permiten replicar tareas humanas complejas dentro de entornos digitales altamente personalizados.

OpenClaw, un fenómeno de adopción sin precedentes

El CEO de NVIDIA subrayó que el ritmo de adopción de OpenClaw ha sido extraordinario dentro del ecosistema del software open source, hasta el punto de compararlo con la expansión histórica de Linux. Según Huang, la velocidad con la que esta plataforma ha sido adoptada demuestra el interés que está despertando el uso de agentes de inteligencia artificial dentro de entornos profesionales y de consumo.

«OpenClaw es probablemente el lanzamiento de software más importante que hemos visto. Linux tardó unos 30 años en alcanzar este nivel de adopción. OpenClaw lo ha conseguido en apenas tres semanas y ya es el software open source más descargado de la historia.»

Jensen Huang, CEO de NVIDIA

El directivo también destacó que herramientas como OpenClaw han demostrado que la inteligencia artificial puede ejecutar tareas que antes requerían conocimiento especializado y largos periodos de trabajo, utilizando únicamente series de instrucciones o prompts. Esto permite automatizar procesos complejos y simplificar tareas repetitivas que forman parte de numerosos flujos de trabajo profesionales.

El consumo de tokens se dispara con los agentes de IA

Uno de los efectos más visibles de este nuevo paradigma es el enorme incremento en el uso de tokens, la unidad básica de procesamiento utilizada por los modelos de lenguaje y sistemas generativos. Según Huang, la llegada de los agentes de inteligencia artificial ha provocado un aumento de hasta 1.000 veces en el consumo de tokens, una cifra que refleja el crecimiento explosivo de las nuevas aplicaciones de IA.

Este aumento masivo del consumo de tokens está generando una presión sin precedentes sobre la infraestructura de computación en centros de datos, especialmente en plataformas diseñadas para ejecutar modelos de IA a gran escala. A medida que los agentes de IA comienzan a integrarse en más flujos de trabajo empresariales, la demanda de recursos de cálculo continúa creciendo a gran velocidad.

Huang describe este fenómeno como un “vacío de capacidad de cómputo”, una situación en la que la demanda de potencia de cálculo crece más rápido que la capacidad de despliegue de hardware en los centros de datos. Incluso ampliando infraestructuras y aumentando el número de sistemas disponibles, la demanda seguiría creciendo mientras los agentes de IA continúen expandiéndose hacia nuevas tareas dentro de las organizaciones.

Hopper, Blackwell y Vera Rubin ante el nuevo escenario de IA

Durante su intervención, Huang también explicó cómo las distintas arquitecturas de GPU de NVIDIA encajan dentro de este modelo de cinco capas. Según el directivo, plataformas como Hopper y Blackwell han estado principalmente orientadas a cargas de trabajo de entrenamiento de modelos de inteligencia artificial, donde el objetivo es mejorar la capacidad de aprendizaje de los sistemas.

Sin embargo, con la futura arquitectura Vera Rubin, NVIDIA pretende abordar los nuevos desafíos que plantean los agentes de inteligencia artificial, especialmente en tareas que requieren contextos largos y procesamiento continuo de grandes volúmenes de tokens. Este tipo de cargas de trabajo está creciendo rápidamente debido al uso intensivo de agentes capaces de ejecutar múltiples tareas de forma autónoma.

Para responder a estas necesidades, las plataformas basadas en Rubin incorporarán mayores cantidades de memoria integrada, junto con sistemas de interconexión avanzados y nuevas plataformas como ICMS, diseñadas para gestionar de forma más eficiente las cargas de trabajo asociadas a los agentes de IA. Dado el enorme desequilibrio actual entre demanda de computación y consumo de tokens, Huang considera que la llegada de esta arquitectura podría generar una demanda muy elevada dentro del sector de infraestructura de inteligencia artificial y centros de datos.

Vía: Wccftech

Sobre el autor