Apple estaría trabajando en una nueva generación de AirPods Pro con cámara integrada, un movimiento que reforzaría su ofensiva en el segmento de wearables con IA frente al avance de Meta y sus gafas inteligentes. La compañía busca añadir capacidades de computación contextual y procesamiento en el dispositivo, ampliando el ecosistema de dispositivos impulsados por IA multimodal.
La estrategia formaría parte de un trío de productos centrados en IA personal, junto a unas posibles gafas inteligentes y un dispositivo tipo colgante AI, configurando una arquitectura distribuida de asistentes siempre activos.
Lanzamiento inminente y precedentes de analistas
Según Mark Gurman, de Bloomberg, los nuevos AirPods Pro podrían debutar incluso este mismo año, incorporando una cámara miniaturizada en cada auricular. El objetivo no sería capturar vídeo convencional, sino habilitar funciones avanzadas de percepción espacial, reconocimiento contextual y análisis del entorno.
No es la primera vez que surge esta hipótesis. El analista Ming-Chi Kuo ya adelantó en 2024 que Apple exploraba integrar una cámara infrarroja (IR) en futuros auriculares. Aquella predicción apuntaba a funciones relacionadas con detección de proximidad avanzada y mejoras en la interacción hombre-máquina.
Patente de detección 3D y proyector de puntos
En julio de 2025, Apple obtuvo una patente relacionada con el uso de cámaras similares al proyector de puntos de Face ID, orientadas a detección de proximidad y mapeado de profundidad en 3D. Esta tecnología podría trasladarse a unos AirPods Pro con sensor IR, permitiendo captar información espacial del entorno inmediato del usuario.
La aplicación práctica iría más allá del audio. Un sistema de mapeado tridimensional combinado con procesamiento de IA en el edge abriría la puerta a nuevas formas de interacción gestual o contextual sin necesidad de pantalla, reforzando la visión de un ecosistema wearable autónomo.
Q.ai y el reconocimiento de susurros silenciosos
Otra teoría conecta la adquisición de Q.ai por parte de Apple con estos auriculares equipados con cámara IR. La hipótesis sugiere que el sensor permitiría analizar micro movimientos faciales para interpretar susurros o habla silenciosa, utilizando algoritmos de reconocimiento biométrico y modelos de IA aplicada al lenguaje.
Si se confirma, el dispositivo podría detectar órdenes sin emisión audible, apoyándose en análisis muscular facial y modelos multimodales entrenados en local. Esta integración reforzaría la apuesta de Apple por la IA en el dispositivo, diferenciándose de soluciones basadas exclusivamente en la nube.
El movimiento representa un intento claro de frenar la ventaja inicial de Meta en el terreno de los wearables inteligentes. La clave estará en si estas nuevas funciones aportan un valor tangible o si el mercado percibe la cámara integrada como una innovación estratégica dentro de la nueva ola de dispositivos AI personales.
Vía: Wccftech










