
À l’approche de la sortie stable d’iOS 26.1, les développeurs scrutant la bêta ont débusqué un détail intrigant dans le code : un message d’erreur passé de “Signaler un problème lié à ChatGPT” à une formulation plus large, “Signaler un problème lié à un tiers”.
Ce petit ajustement, repéré dans les fichiers d’Apple Intelligence, laisse présager une ouverture imminente à de nouveaux modèles d’IA externes. Lancé en fanfare avec iOS 26 en septembre 2025, Apple Intelligence mise déjà sur un partenariat exclusif avec OpenAI, mais cette découverte technique suggère que Google Gemini et d’autres pourraient bientôt rejoindre la danse, enrichissant Siri et les outils d’écriture sans alourdir l’expérience utilisateur.
Apple, lors de la WWDC 2024, et via Craig Federighi, vice-président en charge des logiciels, avait évoqué des intégrations futures avec plusieurs fournisseurs. En pratique, cela pourrait signifier des réponses plus personnalisées pour les requêtes complexes, comme l’analyse d’images ou la génération de texte, tout en maintenant les traitements on-device pour la confidentialité. Avec iOS 26.1, Apple étend déjà Apple Intelligence à huit langues supplémentaires dont le danois, le néerlandais et le vietnamien, rendant ces outils accessibles à un public plus vaste.
Au-delà de cette ouverture, iOS 26.1 beta 3 apporte des nouveautés concrètes en IA, comme le support du Model Context Protocol (MCP), un standard initié par Anthropic et adopté par OpenAI et Google. Ce protocole permettra aux modèles tiers d’interagir directement avec les apps iPhone, iPad et Mac via le système App Intents, ouvrant la porte à des actions intelligentes comme l’édition automatique de tâches ou la recherche contextuelle. Par exemple, cela va vous permettre à demander à Gemini de résumer un e-mail tout en l’intégrant à votre calendrier, une simplicité qui booste la productivité sans quitter l’écosystème Apple. Ces ajouts s’appuient sur le framework Foundation Models, gratuit et offline, qui laisse déjà des apps comme Stuff transformer des notes vocales en listes organisées.
Pour les utilisateurs, ces nouveautés promettent plus de personnalisation, mais exigent un iPhone compatible (séries 15 Pro et supérieures) et l’activation d’Apple Intelligence. Des sources soulignent que le déploiement des partenaires IA pourrait attendre iOS 26.2, le temps de valider les flux de données et les audits de sécurité. En attendant, des fonctionnalités existantes comme Live Translation, qui traduit en temps réel messages et appels avec AirPods Pro 2 ou Visual Intelligence, pour interroger le contenu d’un screenshot via ChatGPT, illustrent déjà le potentiel. C’est une ère où l’IA s’adapte à vos habitudes, de la gestion de batterie adaptative aux mixes musicaux fluides dans Apple Music.
Il faut noter ici que l’intégration de multiples IA renforce la concurrence, mais soulève des questions sur la consommation énergétique et la dépendance aux clouds privés. Apple maintient son cap sur la privacy avec Private Cloud Compute, vérifiable par des experts indépendants, évitant ainsi les fuites de données. Pour les pros de l’informatique, c’est un terrain fertile pour développer des apps sur mesure, comme vu avec les premiers outils utilisant le modèle on-device pour des workflows créatifs.