Apple confirma que Siri se apoyará en Google Gemini para su gran salto en IA

Apple confirma que Siri se apoyará en Google Gemini para su gran salto en IA

El ecosistema de IA de Apple da un giro relevante tras la confirmación oficial de que la nueva Siri utilizará modelos de Google Gemini para parte de su funcionamiento en la nube. La decisión valida informaciones previas y supone un reconocimiento implícito de que Apple Intelligence, en su estado actual, necesita refuerzos externos para competir en el terreno de los asistentes avanzados y la IA generativa a gran escala.

La confirmación llega en un momento clave, cuando la compañía prepara el despliegue progresivo de nuevas capacidades de Siri a lo largo de 2026. Aunque Apple seguirá apostando por modelos propios en el dispositivo, la colaboración con Google marca un cambio estratégico en la arquitectura del asistente.

Un Gemini de gran escala al servicio de Siri

Según se había adelantado anteriormente, y ahora queda refrendado, Apple empleará un modelo Gemini personalizado para potenciar las funciones más complejas de Siri en la nube. Este modelo contaría con alrededor de 1,2 billones de parámetros, una cifra que empequeñece al modelo propio que Apple utiliza actualmente para Siri en la nube, estimado en 1.500 millones de parámetros.

La magnitud del salto no es menor. Este Gemini adaptado asumiría las tareas más exigentes a nivel computacional, permitiendo a Apple ofrecer respuestas más contextuales, mejores resúmenes y una gestión más avanzada de peticiones complejas. A cambio, Apple estaría dispuesta a pagar hasta 1.000 millones de dólares anuales a Google, una cifra que subraya la importancia estratégica del acuerdo.

Cómo se repartirá el trabajo entre Apple y Google

La arquitectura de la nueva Siri se dividirá en tres grandes bloques funcionales, cada uno con un papel bien definido dentro de Apple Intelligence:

  • Planificador de consultas (Query Planner)
    Actúa como la capa de decisión, determinando si una petición debe resolverse mediante búsqueda web, datos personales (calendario, fotos) o acciones dentro de aplicaciones compatibles mediante App Intents.

  • Sistema de conocimiento general
    Permite responder preguntas de cultura general o consultas directas sin recurrir a servicios externos, apoyándose en modelos locales en el dispositivo desarrollados por Apple.

  • Sistema de resumen (Summarizer)
    Encargado de resumir textos, audios y notificaciones, así como de apoyar funciones como resúmenes en Safari o herramientas de escritura.

En este esquema, el modelo Gemini de Google se encargaría del planificador de consultas y del sistema de resumen, mientras que el conocimiento general seguiría dependiendo de los modelos propios de Apple en el dispositivo, conocidos como Foundation Models.

Las nuevas funciones de Siri previstas para 2026

Apple lleva meses preparando el despliegue de funciones avanzadas de Apple Intelligence, previstas para llegar con iOS 26.4 en primavera de 2026. Entre las más relevantes se encuentran:

  • Acciones dentro de apps
    Siri podrá ejecutar tareas contextuales sin abrir aplicaciones, como añadir elementos a listas, enviar mensajes o reproducir música.

  • Conciencia de contexto personal
    El asistente podrá utilizar información personal para ofrecer respuestas más precisas, como localizar referencias concretas dentro de conversaciones de Mensajes.

  • Conciencia de lo que hay en pantalla
    Siri entenderá el contenido visible en el dispositivo y podrá actuar en consecuencia, abriendo la puerta a comportamientos más agentivos.

Estas capacidades dependen en gran medida de una IA más potente y flexible, lo que explica la necesidad de apoyarse en modelos externos de gran escala.

Confirmación oficial y visión a largo plazo

En declaraciones a CNBC, Apple confirmó directamente el uso de Gemini, afirmando que “tras una evaluación exhaustiva, determinamos que la tecnología de Google proporciona la base más capaz para los Foundation Models de Apple”. Por su parte, Google ratificó que los Foundation Models de próxima generación de Apple también se ejecutarán sobre Gemini en la nube.

Durante la última presentación de resultados, Tim Cook aseguró que la compañía está haciendo “buenos progresos” con la nueva Siri y que el lanzamiento sigue en calendario para 2026. Además, dejó la puerta abierta a integrar más modelos de terceros en el futuro, una declaración que refuerza la idea de que Apple está preparando el terreno para Model Context Protocol (MCP), el estándar abierto de Anthropic que facilita la interoperabilidad entre modelos de IA.

Por ahora, ChatGPT sigue siendo el único modelo externo integrado oficialmente con Siri, pero el respaldo de Google Gemini supone un salto cualitativo que redefine la estrategia de Apple en IA. Más que una concesión puntual, la decisión apunta a un enfoque híbrido y pragmático, donde Apple prioriza experiencia de usuario y resultados frente a una dependencia exclusiva de modelos propios.

Vía: Wccftech

Sobre el autor