La startup estadounidense Tiiny AI ha presentado el Pocket Lab, reconocido por Guinness World Records como el miniPC de IA más pequeño capaz de ejecutar un LLM de 100 B parámetros de forma local. Este dispositivo representa un cambio de paradigma: permite ejecutar modelos de hasta 120 B parámetros totalmente sin conexión, eliminando la dependencia de la nube y los centros de datos.
Con un consumo típico de 65W y un diseño de 14,2 × 8 × 2,53 cm (unos 300 g), el Tiiny AI Pocket Lab introduce el concepto de supercomputación personal, orientada a la IA privada y portátil. La compañía sostiene que el verdadero reto del sector no es la potencia de cálculo, sino la dependencia estructural del cloud.
Arquitectura híbrida y rendimiento local
El dispositivo está impulsado por un procesador ARMv9.2 de 12 núcleos, acompañado de un módulo heterogéneo (SoC + dNPU) con un rendimiento de ~190 TOPS. Dispone además de 80 GB de memoria LPDDR5X y un SSD de 1 TB, permitiendo ejecutar modelos de gran escala sin necesidad de GPUs externas.
En el plano técnico, el sistema combina dos innovaciones clave:
- TurboSparse, una técnica de activación neuronal dispersa que mejora la eficiencia de inferencia sin reducir precisión.
- PowerInfer, un motor de inferencia abierto con más de 8.000 estrellas en GitHub, que distribuye dinámicamente la carga entre CPU y NPU, logrando un rendimiento comparable al de servidores con un consumo muy inferior.
Esta arquitectura permite ejecutar modelos equivalentes a GPT-4o, manteniendo la privacidad total y reduciendo drásticamente el impacto energético frente a sistemas basados en GPU.
IA personal, privada y sin conexión
El Pocket Lab está diseñado para cubrir el espectro de IA personal entre 10 B y 100 B parámetros, lo que cubre más del 80% de los casos de uso reales. Puede ejecutar flujos de trabajo complejos con razonamiento multietapa, memoria persistente y procesamiento contextual profundo, sin conexión a Internet.
Toda la información, preferencias y documentos del usuario se almacenan localmente con cifrado de nivel bancario, ofreciendo un entorno de IA privada y persistente que contrasta con los modelos dependientes de la nube.
El dispositivo incluye además un ecosistema abierto con implementación directa de LLMs como Llama, Qwen, DeepSeek, Mistral, Phi y GPT-OSS, junto a agentes de IA como ComfyUI, Flowise, Libra o SillyTavern, accesibles mediante instalación en un clic.
Especificaciones técnicas destacadas
- CPU: ARMv9.2 de 12 núcleos
- IA Compute: módulo heterogéneo SoC + dNPU (~190 TOPS)
- Memoria: 80 GB LPDDR5X
- Almacenamiento: 1 TB SSD
- Capacidad de modelo: hasta 120 B parámetros totalmente local
- Consumo: 30W TDP / 65W típico
- Dimensiones: 14,2 × 8 × 2,53 cm
- Peso: ~300 g
- Conectividad: funcionamiento completamente offline
Un paso hacia la computación descentralizada
El lanzamiento llega en un contexto de crecimiento acelerado del mercado de modelos de lenguaje a gran escala (LLM), valorado en 7.400 millones $ (~6.390 millones €) en 2025 y con previsión de superar los 35.400 millones $ (~30.530 millones €) en 2030, según Grand View Research.
El Tiiny AI Pocket Lab se perfila como un avance tangible hacia la IA personal descentralizada, combinando eficiencia energética, privacidad completa y rendimiento local comparable al de servidores de GPU profesionales, todo en un dispositivo de bolsillo.
Su presentación pública se completará durante el CES 2026, donde se mostrarán las funciones OTA y la integración con nuevos modelos de IA abiertos.
Vía: TechPowerUp



















