La stratégie IA d’Apple se dévoile. Raisonnable et gagnante ?
Depuis le rendez-vous manqué de 2024, Apple a tenté de suivre plusieurs pistes selon un scénario qui, vu de l’extérieur, est apparu le plus souvent chaotique. D’autant plus que nombre de chercheurs de haut vol, d’ingénieurs et d’autres dirigeants des secteurs spécialisés dans l’IA ont quitté, mois après mois, le navire « à la pomme » pour partir, qui chez OpenAI, qui chez Meta ou chez Google.
Enfermés dans la vision qu’Apple avait, dans les domaines vitaux, toujours trouvé en interne les ressources indispensables à son développement et à ses innovations, les plus hauts responsables ont mis de nombreux mois à comprendre que, pour l’IA, le retard ne pourrait être rattrapé, et qu’il n’y avait pas de bonnes raisons de le tenter en vain.
Même si l’entreprise a grillé des milliards de dollars dans un projet abandonné, comme la voiture, ou sans débouché réel, comme le Vision pro, ce n’est rien en regard des sommes colossales que le développement de modèles implique, tant en termes de ressources humaines que d’infrastructures. Si Apple a toujours de gros moyens financiers, elle n’en a pas assez ici, et n’a surtout pas le désir de les monopoliser pour remonter en première ligne de cette course effrénée.
C’est donc, in fine, un tout autre avenir qui se dessine, plus raisonnable, et potentiellement source de nouvelles rentrées financières, plus que de dépenses, même s’il y en aura encore, car Apple n’a pas dit son dernier mot. Les recherches vont se poursuivre sur les techniques permettant de créer des modèles puissants, mais compacts, que les Mac et autres matériels de 2030 et après pourront exploiter en local, sans recourir à des infrastructures matérielles démentielles ou des partenariats gênants. Finalement, Apple a tout son temps. Et en attendant, elle va jouer une tout autre partition…
C’est lors de la conférence inaugurale de la WWDC 2026 qu’Apple devrait présenter une stratégie enfin claire, maîtrisée, pour se repositionner comme un acteur majeur de l’IA, mais avec une vision et dans une perspective bien différentes de ce qu’on imaginait.
Le point sur Apple Intelligence

Apple avait annoncé une stratégie IA à la WWDC 2024, avec la promesse d’un Siri personnalisé sachant tirer parti de nos e-mails, comprendre ce qui est affiché sur nos écrans et effectuer des actions dans nos applications installées. Mais à l’automne, les systèmes n’ont été proposés qu’avec des fonctionnalités très banales, basiques et parfois mises en œuvre de façon incohérente et sans unification. On peut citer les Outils d’écriture, dont l’usage est différent entre les applications d’Apple et celles des développeurs tiers ; l’application Image Playground pour la génération d’images, dont la première mouture était rigolote, sans plus ; et les résumés de notifications, ni très efficaces ni très fiables non plus… Du nouveau Siri, rien n’était disponible. Car rien ne marchait, les démos n’étaient en vrai que des créations vidéo. Ce « nouveau » Siri a déjà été reporté trois fois. Si les finalités restent les mêmes, c’est néanmoins une tout autre solution qui nous sera proposée à l’automne prochain.
Vers une application Siri autonome
Siri, qui « fête » plus ou moins ses quinze ans, est une surcouche implantée dans les systèmes de tous les matériels Apple, basée sur des concepts d’IA relevant de la génération d’avant la spectaculaire émergence de l’IA générative. Siri présente une interface logicielle, ou parfois matérielle (bouton), servant à poser une question, de vive voix ou par écrit, à laquelle il donne une réponse, ou effectue une action. C’est un système d’IA totalement « cadré », dans lequel questions et réponses sont « prévues » à l’avance et suivant des règles très précisément définies.
Après avoir traîné les pieds et affirmé à plusieurs reprises que, non, Siri ne deviendrait pas un chatbot, Apple finalise en réalité une application Siri pour iPhone, iPad et Mac, dont le nom de code interne est Campos. On n’en sait pas grand-chose, mais il est clair que Siri Campos sera bien une application dans l’esprit de ChatGPT ou de Claude. Siri aura une vraie fenêtre affichant la conversation courante toute en bulles de discussion, comme l’application Messages ; une colonne stockant les conversations passées, avec la possibilité d’épingler des échanges en favoris. Il sera a priori possible de basculer, au cours d’une même conversation, entre les modes texte et vocal. Des documents texte, PDF, tableaux et photos… pourront être joints pour étayer l’analyse et le raisonnement.
C’est donc une rupture complète par rapport au modèle d’interaction du Siri que nous connaissons, où tout repart de zéro à chaque échange. Cependant, Siri Campos ne semble n’avoir rien de novateur. Un chatbot, c’est d’une banalité, aujourd’hui. J’espère qu’il y aura quelques bonnes surprises, quelques détails d’interface innovants, des fonctionnalités additionnelles ou différentes. Sinon, pourquoi abandonnerais-je ChatGPT, Claude ou Chrome et son mode AI, outils que j’utilise depuis plus de deux ans ?
Siri devrait aussi avoir une seconde casquette : être un poste de pilotage du Mac, de l’iPhone et de l’iPad, et de sans doute nouveaux appareils dans le domaine de la domotique. Comme l’interface style chatBot est conçue pour la conversation, donc inadaptée pour ces autres tâches, Siri devrait également se manifester dans une interface compacte, comme le font déjà les nombreux assistants IA sur Mac. Et quelle meilleure place que l’île dynamique, en haut, en plein centre de l’écran ?
Une interface repensée dans une « île dynamique »
Selon Mark Gurman, de chez Bloomberg, Siri s’implanterait au niveau de la Dynamic Island, en haut de l’écran, invitant l’utilisateur à Rechercher ou demander. Il n’y a pas d’île dynamique sur les Mac, mais ce peut être aisément créé. Il y a déjà pléthore d’applications qui occupent cet emplacement stratégique, au niveau de l’encoche des MacBook, ou simplement en haut, au centre de n’importe quel écran.
Pendant le traitement d’une requête, une « gélule » de recherche apparaîtrait à côté d’une icône Siri lumineuse. La gélule déploierait un panneau translucide de taille variable pour afficher les résultats. Voilà qui m’évoque furieusement un des multiples widgets de l’assistant EnConvo, dont j’ai récemment parlé sur VVMac. Et comme dans EnConvo, il serait possible de transformer d’un clic ce panneau en fenêtre chatbot pour poursuivre l’échange si nécessaire.

L’assistant EnConvo propose aussi une interface sous forme de gélule ou cartouche pour accéder à tout moment aux fonctionnalités d’IA.
Apple caresserait également l’idée que Siri prenne la place de Spotlight pour effectuer aussi bien des recherches de fichiers au niveau local que l’aiguillage des requêtes d’IA vers les services et modèles compétents. À cette fin, un bouton Demander à Siri serait omniprésent, au moins dans toutes les applications Apple fournies avec le système. L’accès aux Outils d’écriture, revus et corrigés, serait lui aussi simplifié et tout aussi omniprésent. Grâce à l’acquisition permanente du contexte personnel de l’utilisateur, Siri serait à même de lire messages, e-mails, notes, calendrier (événements et tâches) pour fournir, en sus des résultats provenant du web, des réponses collant à la vie réelle de chaque utilisateur.
Gurman prévient que tout cela est essentiellement encore en chantier ; il n’est pas certain que ce qui sera montré à la WWDC corresponde aux rumeurs précises qu’il distille au fil des semaines. Tout cela peut largement évoluer. Ce qui est clair, il n’y a rien d’intéressant concernant l’IA dans macOS 26.5, attendu début juin aussi. Je viens d’installer la première bêta et je n’y ai rien découvert.
Ouvrir Apple Intelligence aux services d’IA concurrents
Pour reconstruire toutes les bases de Siri et d’Apple Intelligence, Apple s’est associé à Google. Il semble qu’elle puisse exploiter librement le modèle Gemini, contre un milliard de dollars par an. En complément des modèles « maison », ceux qui sont embarqués dans les appareils ou qui tournent déjà sur le Private Cloud Computer, Gemini va servir de base pour animer Siri et d’autres services. L’accord avec Google se situe donc au niveau des « fondations » et n’a rien à voir avec la possibilité d’utiliser le chatbot Gemini.
Apple a au niveau « applicatif » un tout autre plan…

Depuis le lancement d’Apple Intelligence avec iOS 18, un accès à ChatGPT est intégré en standard, ce qui permet aux utilisateurs de rediriger des requêtes vers ChatGPT quand les modèles d’Apple ne peuvent pas répondre. Plutôt que de négocier de semblables contrats avec d’autres « partenaires », Apple va à nouveau choisir la bonne vieille approche des « extensions ».

Représentation schématique de l’origination de l’IA dans macOS (et les autres plateformes) telle que je l’imagine, à partir des informations que j’ai recueillies…
C’est par un système d’extensions au Finder qu’Apple a, parallèlement à l’iCloud Drive, ouvert macOS et ses autres plateformes aux fournisseurs de stockage dans le cloud (DropBox, Google, Microsoft, Mega et tant d’autres services). Le principe est aussi appliqué, dans une bien moindre mesure, aux extensions de Mail. Et cette approche a sans doute présidé à la refonte complète de l’architecture des extensions système de tous ordres.
Selon les informations obtenues par Mark Gurman, Apple finalise un système d’extensions grâce auquel une application de type chatbot IA installée depuis une nouvelle section dédiée de l’App Store pourra fonctionner au sein d’Apple Intelligence et de Siri. Quels acteurs de l’IA pourraient y accéder ? Ce n’est pas clair pour l’heure.
Les « extensions » en phase de test seraient ChatGPT d’OpenAI, Gemini de Google, Claude d’Anthropic, et Grok de xAI.

Mais d’autres pourraient se « brancher » très vite : Perplexity, Alexa d’Amazon, Meta AI et Copilot de Microsoft. Selon une description interne : « Les extensions permettent à des agents issus d’applications installées de fonctionner avec Siri, l’app Siri et d’autres fonctionnalités sur vos appareils ».
Les utilisateurs seront dirigés depuis les Réglages Système vers la nouvelle section de l’App Store pour télécharger des services d’IA supplémentaires. On voit mal pourquoi Apple limiterait strictement son agrément aux applications capables de jouer le jeu des extensions, car, si ces applications et services proposent des licences ou des plans payants, il est clair qu’Apple prélèvera au passage sa fameuse et si fâcheuse dîme de 30 %. C’est déjà le cas avec ChatGPT, quand un plan est souscrit depuis macOS, iOS ou IPadOS, et il parait que les rentrées se comptent déjà en dizaines de millions de dollars !
L’intérêt de cette nouvelle approche est évident. Certes, Apple avale quelque peu son chapeau et ouvre ses plateformes aux autres, mais, au lieu de dépenser des milliards pour se battre contre eux, Apple travaille avec eux, pour son propre profit – et forcément celui de ses utilisateurs ! Apple ne se positionne donc pas comme créateur d’IA, mais comme fournisseur, comme aiguilleur.
C’est sans doute un positionnement d’avenir. Des dizaines de nouveaux modèles d’IA sortent toutes les semaines, des généralistes, des agentiques, des hyper spécialisés… L’IA va se banaliser au point d’être aussi transparente et fluide que l’électricité ou l’accès à l’Internet. Apple aurait pu, à un moment, devenir un fournisseur Internet, ou même un opérateur de la téléphonie mobile avec l’iPhone… Elle ne l’a pas fait, à bon escient. L’approche est désormais la même pour l’IA.
C’est encore trop tôt pour savoir en détail ce qui sera dévoilé à la WWDC 2026 – et sans doute avant, car plus rien ne peut être secret de nos jours. Il apparaît certain que Siri fonctionnera enfin davantage comme les assistants IA que nous utilisons depuis deux ans, avec de vrais échanges, la mémoire des interactions passées et la capacité de traiter des documents et des images…Second point : nous ne serons pas limités à un seul fournisseur d’IA.
Tout cela est réjouissant, mais attention : il pourrait y avoir des lendemains qui déchantent pour nombre d’utilisateurs. En effet, les fonctionnalités qui seront présentées pourraient être en partie retardées au-delà de l’automne. C’est souvent arrivé que des fonctions importantes sortent dans les mises à jour .3 ou .4 en début d’année suivante ou même au printemps. Se pose surtout la question des matériels aptes à faire tourner tout cela. Les appareils ne disposant que de 8 Go de mémoire (iPhone, iPad et Mac) n’auront sans doute droit qu’à certaines fonctions et pas à d’autres. Quant au niveau des applications Apple, on vient de voir ce qui s’est passé avec les applications créatives et de productivité, réunies dans un pack… sur abonnement, qui conditionne l’accès à des fonctions d’IA plus « avancées » ; il est évident qu’Apple ne reviendra pas là-dessus.
Apple prendra-t-elle le risque de décevoir, si rapidement, les si nombreux acheteurs de son tout nouveau MacBook Neo, en les privant de trop nombreuses nouvelles fonctions excitantes, efficaces et productives ?
Rendez-vous pris pour le 8 juin, en soirée en France. ✿
