Apple acaba de sacudir los cimientos de su ecosistema: Siri pasará a funcionar con los modelos de Google Gemini bajo el capó. No es un rumor: es oficial.

Apple y Google han entrado en una colaboración de varios años bajo la cual la próxima generación de Apple Foundation Models estará basada en los modelos Gemini y la tecnología en la nube de Google. El acuerdo se formalizó el 12 de enero de 2026 mediante un comunicado conjunto, y su alcance sorprendió a prácticamente toda la industria. Según el comunicado obtenido por CNBC, Apple declaró: "Tras una evaluación cuidadosa, determinamos que la tecnología de Google proporciona la base más capaz para los Apple Foundation Models y estamos entusiasmados con las innovadoras nuevas experiencias que desbloqueará para nuestros usuarios." No es un experimento menor: es una apuesta estratégica que redefine el futuro de la IA en los dispositivos más vendidos del planeta.


El origen de esta decisión hay que buscarlo en los repetidos tropiezos de Apple con su propio desarrollo de inteligencia artificial. Apple retrasó el lanzamiento de la Siri renovada varias veces; en 2025 la compañía tuvo que admitir que lograr su visión de una nueva Siri estaba tomando más tiempo del esperado, pese a que ya había lanzado publicidad para el producto. La promesa de una Siri contextual, capaz de entender el entorno del usuario y ejecutar tareas complejas a través de múltiples aplicaciones, se convirtió en el chiste recurrente de la industria tech: prometida con fanfarria en la WWDC 2024, retrasada en 2025, y finalmente rescatada en 2026 con ayuda de su mayor rival histórico en búsquedas. La ironía es monumental: la empresa más valiosa del mundo necesitó al motor de Google para que su asistente de voz dejara de ser motivo de burla.


El acuerdo, que Bloomberg estima en aproximadamente mil millones de dólares anuales, le da a Apple una ventaja considerable en la carrera de la IA, aunque a un precio elevado. Pero lo que Apple compró no es solo potencia computacional: compró tiempo. La integración con Gemini funciona como una estrategia puente, dándole a Apple margen mientras desarrolla sus propios modelos de próxima generación, denominados internamente "Ferret-3", planificados para 2026–2027. Es la táctica clásica de Silicon Valley: subcontratar lo que no puedes construir a tiempo y usar ese período para ponerte al día. Apple no es la primera empresa en hacerlo, pero sí la más grande que lo ha hecho de manera tan visible y costosa.





La arquitectura técnica del acuerdo es más sofisticada de lo que los titulares sugieren. La integración funciona en capas: para tareas simples, Siri las gestiona directamente en el dispositivo sin tocar ningún servidor externo; para consultas de complejidad intermedia, la infraestructura propia de Apple actúa como intermediaria; y para razonamiento complejo o conocimiento del mundo, la consulta se envía a una versión personalizada de Gemini corriendo en la infraestructura segura de Apple. El resultado es un sistema de tres niveles que pretende ofrecer la potencia de Gemini sin sacrificar la privacidad que Apple ha convertido en su argumento diferenciador frente a Google y Meta. Según informes técnicos, el modelo Gemini al que accede Apple tiene 1,2 billones de parámetros y fue construido específicamente para Siri y Apple Intelligence, siendo ocho veces más grande que los modelos en la nube que Apple utilizaba hasta ahora. 


La primera oleada de cambios ya está llegando a los usuarios actuales. Con la reciente publicación de iOS 26.4, Siri ya comenzó a usar Gemini para mejorar el reconocimiento de contexto y la consciencia de pantalla — si preguntas "¿cuál es el punto principal de este artículo?" mientras navegas en Safari, es Gemini quien ayuda a resumirlo en tiempo real. Pero esto es apenas el aperitivo. La integración completa llega con iOS 27, que se presentará junto al iPhone 18 en septiembre, cuando la "Siri Conversacional Completa" permitirá diálogos de más de 20 intercambios y tareas complejas como "busca la información del vuelo en mi email, verifica si está retrasado y manda un mensaje a mi conductor de Uber con la actualización". Es el salto que los usuarios llevan esperando desde que Siri fue anunciada originalmente en 2011. 


Sin embargo, la noticia más disruptiva de esta historia no es el acuerdo con Google: es lo que Apple revelará en la WWDC del 8 de junio. Apple ha confirmado que iOS 27 incluirá un sistema de "Extensions" que permitirá a los usuarios elegir entre ChatGPT, Google Gemini, Claude de Anthropic y otros asistentes de IA para potenciar Siri, Writing Tools e Image Playground. En términos prácticos, esto significa que un usuario de iPhone podría configurar Google Gemini como predeterminado para generación de texto, Claude de Anthropic para edición de imágenes, y mantener ChatGPT de OpenAI para conversaciones con Siri — o mezclarlos libremente. Es la primera vez en la historia de los sistemas operativos móviles que el motor de IA es intercambiable por el usuario como si fuera un idioma del sistema. 



Este movimiento tiene implicaciones que van mucho más allá de la comodidad del usuario. Gemini opera en dos niveles diferentes en iOS 27: a nivel nativo, Apple licenció Gemini para potenciar la Siri reconstruida y los modelos fundamentales de Apple Intelligence, pagando alrededor de mil millones de dólares anuales. Esa integración funciona independientemente de lo que el usuario configure en Ajustes. A nivel de Extensions, Gemini también puede aparecer como una opción seleccionable por el usuario junto a Claude o ChatGPT — pero es una capa de acceso separada y opcional. Dicho de otro modo: Gemini es el motor bajo el capó que todos usarán, y además puede ser el copiloto que eliges conscientemente. OpenAI, en cambio, pierde su estatus de socio exclusivo de Siri, una posición que mantenía desde iOS 18 y que le había otorgado acceso a una distribución de más de mil millones de dispositivos activos. 


El impacto en el tablero competitivo de la IA es inmediato y contundente. Dan Ives de Wedbush Securities elevó su precio objetivo para Apple tras el anuncio, declarando: "Este acuerdo convierte una debilidad en una fortaleza. La percibida desventaja de Apple en IA acaba de convertirse en una ventaja de asociación, y el mercado está subvalorando la oportunidad de monetización de Siri que desbloquea Gemini." Para Google, el beneficio es doble: cobra cerca de mil millones de dólares al año por el acceso al modelo y, simultáneamente, consolida a Gemini como el estándar de facto de la IA conversacional en el ecosistema de hardware más premium del mundo. El acuerdo es otra señal del creciente aval a la agenda de IA de Google y su regreso frente a OpenAI: en 2025 Google registró su mejor año desde 2009 y superó a Apple en capitalización de mercado por primera vez desde 2019. 


Lo que está en juego en la WWDC del 8 de junio es más que un lanzamiento de software. Apple representa su intento de cerrar decisivamente la brecha que se había abierto frente a OpenAI, Google y Microsoft: mientras estos avanzaban agresivamente en modelos de lenguaje y IA conversacional en 2023 y 2024, la respuesta de Apple fue cautelosa, incremental y repetidamente retrasada. Con el acuerdo Gemini como columna vertebral, el sistema de Extensions como plataforma abierta y un rediseño completo de Siri —incluyendo una nueva interfaz en la Dynamic Island que cambiará de color cuando sea Gemini quien responde— la WWDC 2026 será recordada como el momento en que Siri se convirtió en un chatbot real y Apple dejó de ser una plataforma de IA de proveedor único. La pregunta que queda en el aire es si Apple logró, por fin, llegar a tiempo.

Post a Comment

Artículo Anterior Artículo Siguiente