Samsung estaría replanteando el futuro de Bixby sin “reinventar” el asistente desde cero: en lugar de una renovación interna a gran escala, la idea sería apoyarse en un LLM externo como motor de respuestas avanzadas. En la práctica, consultas complejas se derivarían a Perplexity o DeepSeek, mientras el asistente mantendría su rol habitual de control del teléfono, automatizaciones y acciones rápidas.
Las pistas más recientes llegan desde una “deep-dive” en One UI 8.5, donde se aprecian capturas del comportamiento en tiempo real del flujo entre Bixby, el backend de LLM y distintos módulos de respuesta. El planteamiento recuerda a la evolución de Siri con modelos de terceros, aunque aquí el foco está en que el asistente pueda razonar, planificar y ejecutar tareas más allá de preguntas sencillas.
Qué cambia cuando Bixby deriva preguntas a un LLM
Hasta la fecha, Bixby solía rendir bien en comandos de sistema (ajustes, llamadas, recordatorios), pero era común que “patinara” en preguntas abiertas o que requieren contexto. Con el esquema de offloading a un LLM, el asistente podría mantener la interfaz y la voz, pero delegar el “cerebro” de ciertas respuestas a Perplexity o DeepSeek, según el tipo de consulta.
Esto abre la puerta a respuestas más largas, con mejor estructura y una mayor capacidad de seguir el hilo, algo especialmente relevante cuando el usuario plantea comparativas, explicaciones técnicas complejas o pasos encadenados que requieren contexto. También se menciona un posible comando de activación tipo “Hey Plex”, que indicaría el salto a un modo de consulta avanzada, apoyado directamente en un modelo LLM más capaz dentro del asistente.
Bixby Live y sus agentes: enfoque por perfiles de uso
En el interior de Bixby Live se describen ocho agentes orientados a escenarios concretos: general agent, tour guide, interview, positive support, storyteller, listening ear, English-speaking y dress matching. La idea parece clara: no es solo “responder”, sino adaptar el estilo y la intención según el contexto, algo típico en asistentes modernos con capas de orquestación sobre un modelo base.
Este enfoque por agentes especializados permitiría que el asistente evolucione del clásico esquema de pregunta-respuesta a la ejecución de una tarea completa, seleccionando automáticamente el módulo adecuado para guiar, resumir, redactar, practicar idiomas o incluso sugerir combinaciones de ropa. Si se confirma, supondría un avance claro hacia una IA más utilizable en el día a día, sin obligar al usuario a cambiar de aplicación constantemente.
Generación, análisis en pantalla y funciones avanzadas en One UI 8.5
Las capturas también apuntan a capacidades de generación de contenido: podcasts, imágenes, vídeos y documentos, además de análisis simultáneo de múltiples imágenes y archivos. En paralelo, se menciona lectura de notificaciones en tiempo real tanto en la barra de estado como en la pantalla de bloqueo, lo que sugiere un nivel mayor de “atención contextual” sobre lo que ocurre en el teléfono.
A esto se sumarían funciones como deep thinking, intelligent execution, document mind mapping, reproducción musical con IA y práctica de inglés. A falta de confirmación oficial, el detalle importante es el cambio de filosofía: más que un asistente “cerrado”, Bixby podría convertirse en una interfaz que conecta el sistema con motores de IA más capaces, especialmente en dispositivos Galaxy optimizados para ello.
Vía: Wccftech


















