Expérimentez, avec Apple, l’IA locale sur votre Mac

Apple intègre discrètement, mais avec persévérance, son IA maison, directement sur ses matériels, et dans ses applications. Elle la propose aussi aux développeurs tiers : des applications, nouvelles ou en mises à jour, qui tirent parti de cette opportunité, commencent à arriver sur les boutiques d’apps. Les développeurs peuvent s’appuyer sur le cadre de développement Apple Foundation et sur l’atelier MLX.

J’évoque souvent, sur un ton critique, les difficultés d’Apple à suivre dans la course à l’IA, et le triste actuel état de Siri. Les choses évoluent toutefois. Il semble que le dogme du « tout-fait-maison » soit mis en suspens pour quelque temps. Le prochain Siri sera largement propulsé par une version spéciale de Gemini de Google, sur l’infrastructure sécurisée d’Apple. Cependant, l’IA chez Apple ne se limite pas à Siri.

Nous pouvons, depuis un an, utiliser des services divers proposés par Apple Intelligence, comme la gestion du texte dans toutes les applications (génération, correction, reformulation…) ou la création d’images grâce à Image Playground. D’autres domaines sont également actifs, tels que la dictée et la transcription.
De façon presque invisible, lentement mais sûrement, Apple intègre l’IA à tout son écosystème. Chez Apple, l’IA est envisagée plus comme un ingrédient que comme un produit ou un service distinct – du moins pour l’instant. Cette approche consiste à faire fonctionner l’IA là où se trouvent les données, c’est-à-dire sur nos Mac, nos iPad, nos iPhone.

Mais savez-vous sur quoi tout cela repose ?

C’est ce que je vous propose de découvrir dans cet article, et de voir aussi comment cela impacte nos applications… Car demain, toutes les applications installées sur nos Mac, et sur nos autres appareils Apple, prendront en charge Apple Intelligence d’une manière ou d’une autre. C’est n’est qu’un début, mais l’intégration de l’IA locale d’Apple sera un critère clé de différenciation.
Autant comprendre un peu, dès maintenant, ce qui se passe en coulisses.

Hélas, la principale limite à expérimenter aujourd’hui ce monde de demain est avant tout matérielle. Pour les Mac, il faut un processeur Apple Silicon M (depuis le M1) et macOS 26+. Pour les mobiles, il faut un appareil équipé au moins d’un processeur A17 Pro (iPhone 15 Pro/ProMax) ou d’un processeur M (iPad) ou A17 Pro (iPad mini 7) et bien entendu iOS/iPadOS 26.
Aucun Mac Intel ne peut exploiter Apple Intelligence – et ne pourra être de plus mis à jour au-delà de macOS 27.
Par ailleurs, certaines fonctions d’Apple Intelligence sont limitées aux langues prises en charge, mais Apple en ajoute régulièrement.

Dans les coulisses, Apple Intelligence sommeille encore

L’intelligence commence à intégrer des applications dès aujourd’hui. Mais c’est demain qu’elle irriguera toutes les applications. La stratégie d’Apple repose grosso modo sur deux piliers : Apple Foundation Models et MLX.

Désormais, les applications macOS peuvent tirer parti du framework Apple Foundation Models, et en particulier, exploiter le petit modèle génératif embarqué sur les matériels, Mac, iPhone, IPad et même Vision pro.

Apple Foundation Models est un framewok introduit dans macOS Sequoia et iOS 18. Il n’est cependant vraiment effectif qu’avec les plateformes 26 lancées en septembre dernier. Dans ce cadre, Apple installe un « petit » modèle de langage au cœur des Mac, des iPhone et des iPad. C’est une intelligence locale, qui ne dépend plus d’un serveur distant.
Ce modèle a été entraîné sur de larges volumes de texte, mais la version embarquée n’a que dans les 3 milliards de paramètres – à comparer au modèle Gemini à 1 200 milliards de paramètres qu’Apple utilisera pour le nouveau Siri. Ce modèle a également une fenêtre d’entrée et un canal de sortie étroits. Cela s’avère suffisant pour les usages courants : écrire, corriger, expliquer, synthétiser des textes de taille réduite, sans interroger des serveurs. Apple l’a calibré pour tourner efficacement sur ses puces M (ou les A17 Pro minimum), offrir des résultats décents, suffisants, sans consommation excessive des ressources matérielles, notamment la batterie.

Une petite intelligence, locale et contextuelle

Avec un modèle capable de fonctionner « on-device », Apple pousse aussi sa stratégie d’un usage sécurisé, confidentiel de l’IA : les données ne sortent pas vers un nuage. L’avantage est double : bien que le modèle soit petit, les réponses sont rapides, et la confiance s’installe, puisque l’utilisateur n’a pas à s’interroger sur la destination vers laquelle partent ses requêtes et ses données.
Bien sûr, ce modèle n’a absolument pas la prétention de remplacer ChatGPT, Gemini ou Claude, mais il offre l’alternative d’une intelligence limitée, mais privée, cohérente, et utile au quotidien. Utile car, en plus d’écrire, de reformuler, de traduire… ce modèle tire parti de fonctions spécifiques du système (les app Intents) pour accéder au calendrier, à Mail, aux notes, au presse-papiers…
Apple invite désormais tous les développeurs d’applications à tirer parti d’Apple Foundation Models, un cadre contrôlé, intégré au système, que toute application peut exploiter par l’intermédiaire d’une interface unifiée (API). Cette connexion native donne aux développeurs une base d’intégration de l’IA et d’automatisation sûre. Ce qu’Apple résume par le slogan : contextual intelligence.

Optimiser des modèles pour Apple Silicon

Le second pilier de l’approche d’Apple, c’est MLX, un environnement open source pour le machine learning, spécialement conçu et optimisé pour les puces d’Apple – CPU, GPU et Neural Engine qui partagent les mêmes ressources, notamment la mémoire unifiée.
MLX n’est pas un modèle et nous, utilisateurs finals, nous ne nous en servirons pas. MLX, c’est pour les développeurs. C’est un laboratoire miniature à la maison, qui leur évite de dépendre d’un serveur distant et d’une carte graphique externe. C’est un atelier pour expérimenter l’IA sans quitter l’univers Apple. Ils peuvent créer des adaptateurs pour Apple Foundation et fine-tuner d’autres petits et moyens modèles directement sur Mac, ajuster leur taille, les tester en local, et les greffer au framework Apple Foundation Models.

MLX est un atelier conçu pour les chercheurs en IA et les développeurs afin d’optimiser et calibrer des modèles génératifs tiers, open source, pour une excution efficace en local sur les processeurs d’Apple compatibles Apple Intelligence.

Il y a aujourd’hui beaucoup de modèles légers, spécialisés, tournant sur des Mac, pour une IA du quotidien, optimisée, intégrée. Dès aujourd’hui, on trouve en cherchant un peu, sur Reddit ou GitHub, par exemple, des outils d’IA locaux qui ont été recalibrés avec MLX,
et dont tout un chacun peut profiter, en complément ou alternativement au modèle d’Apple – bon, d’accord, c’est encore un peu l’aventure ; il faut faire preuve d’un peu de curiosité, avoir tout de même une bonne configuration, et accepter les nombreux problèmes de jeunesse.
Reste que l’association des Foundation Models et de MLX constitue une base solide sur laquelle les développeurs commencent à s’appuyer. Chaque semaine, de nouvelles versions ou de nouveaux logiciels pour macOS exploitent déjà ces possibilités. Vous devriez y prêter attention ! Pour ma part, entre deux applications très similaires, celle qui exploite de façon efficace et pratique les ressources IA de macOS a souvent ma préférence.

Une nouvelle génération d’applications boostées à l’IA

Depuis ces annonces en 2024 et, surtout, la sortie des macOS et iOS/iPadOS 26, des applications disponibles sur les boutiques d’apps ont intégré l’accès au modèle embarqué d’Apple et/ou s’appuient sur d’autres modèles locaux alternatifs, optimisés et calibrés grâce à MLX. Elles les installent elles-mêmes ou laissent l’utilisateur les installer à la demande. L’écosystème d’applications utilisant réellement Foundation Models en est encore à ses débuts. Mais la direction est claire : une intelligence distribuée, partagée entre le système et les apps, qui apprend à se fondre dans le décor.

Tous les outils sont d’ores et déjà disponibles pour les développeurs qui veulent intégrer Apple Intelligence et Apple Foundation Models à leurs applications.

Quelques exemples d’applications que je connais… Stoic, un journal personnel, propose des pistes de réflexion adaptées à l’humeur du jour. OmniFocus introduit depuis sa dernière version 4.8, une prise en charge native des modèles de langage Apple Foundation Models via Omni Automation ; les scripts et plug-ins Omni Automation peuvent interroger directement le modèle de langage local d’Apple, assurant ainsi la confidentialité et la rapidité du traitement. Essayist extrait des citations et génère des résumés d’un PDF, sans envoyer le document sur Internet. Agenda et NotePlan permettent d’interroger directement leurs bases de données de notes (ce qu’on ne peut encore faire avec Apple Notes).

Outre ces applications, qui vont se multiplier, on peut expérimenter l’IA d’Apple (le petit modèle embarqué, son modèle distant, ou même GPT) via des raccourcis. L’application Raccourcis livrée avec macOS 26 (ainsi qu’avec iOS et iPadOS 26) contient en effet neuf actions dédiées à l’IA, dont la principale est Utiliser un modèle d’IA. Si cela vous intéresse, je vous renvoie sur la lecture d’un long article de Nicolas Furno, paru en juillet dernier sur le Club iGen.
Le fait est qu’on peut presque utiliser Raccourcis comme un chatbot. Toutefois, cette application n’est pas vraiment faite pour cela, mais pour créer des enchainements et, désormais, des automatisations sur Mac. De plus, même si Raccourcis n’est pas un langage de programmation, il faut avoir quelque prédisposition, un certain état d’esprit. Même les meubles en kit d’Ikea sont compliqués pour moi. Aussi, je préfère me tourner vers les premiers chatbots « clés en main » qui prennent en charge l’IA locale Apple, ou d’autres modèles locaux via MLX. J’en ai récemment utilisé trois, Vesta, Loccally AI et Russet, avec des succès et des échecs. Je vous propose un compte rendu dans un autre article publié ce jour sur le blog.

Il ne faut pas se leurrer, l’approche locale a ses limites. Sévères. Le modèle intégré d’Apple est très modeste. Il sait travailler sur quelques phrases, un paragraphe, le corriger, le reformuler… mais il ne rédigera pas un roman ni ne soutiendra une longue conversation avec vous. Il n’est pas fait pour cela.
De plus, à cette heure, quand une requête dépasse ses capacités, les développeurs tiers ne peuvent pas basculer automatiquement vers le Private Cloud Compute d’Apple – ce que peuvent faire les applications d’Apple pour leur part, y compris Raccourcis.
Avec le temps, cette architecture hybride – le local d’abord, le cloud au besoin – deviendra la norme.
Comment Apple rentabilisera-t-elle les investissements faits pour l’IA, même s’ils sont inférieurs pour l’instant à ceux des autres grands acteurs du marché ? Est-ce que cela restera gratuit pour les développeurs ? Ou bien devrons-nous payer un surplus, comme pour la plupart des applications intégrant l’accès à de grands modèles d’IA, ou verser notre dîme directement à Apple ? Setapp, la plateforme alternative de vente d’applications, donne une piste de travail : si on veut tirer parti des fonctions IA (distantes) intégrées à certaines des applications qu’elle distribue, il faut prendre un abonnement Setapp spécifique, à défaut, les dites fonctions ne sont pas accessibles dans ces applications.
Soyons patients, nous devrions en savoir déjà beaucoup plus à la WWDC de juin 2026, et d’ici là, avoir l’opportunité de tester de plus en plus d’applications estampillées « IA locale intégrée » sur les boutiques d’Apple et sur les sites de développeurs. ✿

D'autres articles du blog à découvrir…

5 3 votes
Évaluation de l'article
S’abonner
Notification pour
8 Commentaires
Commentaires en ligne
Afficher tous les commentaires
Invité
Zimmermann
26 jours il y a

Devant cette débauche hystérique de toute la galaxie pour l’intelligence artificielle, je voudrai vous signaler un léger détail , qui témoigne de la pauvreté du modèle informatique de l’IA , au plus profond de son cœur logiciel. Cela me rappelle mes difficultés à trouver en 1988 un driver pour mon imprimante afin de pouvoir l’utiliser, avec un câble bien sûr, sur mon Atari ST.
Donc voilà en peu de mots : réponses de l’IA sont simplement impossible à imprimer directement sur mon mon Mac mini, sur mon iPhone et sur mon iPad . Il faut utiliser divers chemin neo classique des années 2000, faire une copie d’écran pour imprimer chaque page, en les faisant dérouler,l’une après l’autre, ou sélectionner et copier dans un logiciel de traitement de texte, ou passer par un fichier Notes.
quand on pose la question à notre IA , que ce soit Chat GPT. Perplexity ou Le Chat, on obtient toujours la même réponse en langage diplomatique, fort embarrassant pour l’interlocuteur.. En clair ce ne serait pas la politique choisie, ce n’est pas la philosophie de l’IA etc, c’est stupide au dernier degré..
Je me suis régalé des réponses ampoulées et compliquées, digne du plus obscure homme politique coincé la main dans le sac.
Donc cela est , au fond, très inquiétant sur le plan technologique quelque soit la qualité des réponses de l’IA surtout dans le domaine médical, qui est le mien. Il y a une fracture technologique de programmation extrêmement grave, à mon avis lié à la dualité technologique du modèle de programmation entre le monde Apple et le monde Windows.
Aussi je me demande comment faire un mini programme avec Terminal pour créer à l’écran ou sur le navigateur une touche impression dédiée aux réponses de l’IA…
Sinon en 1988, j’ai trouvé mon driver d’imprimante sur COMPUSERVE, grâce à un modem à 325 bauds/mn, que j’ai téléchargé sur mon disque dur de 20 mega octets, par le réseau TRANSPAC de l’ile de Nuku Hiva..On reviens de loin.

Invité
Pierre Mouriès
13 jours il y a
Répondre à  Bernard Le Du

A partir des Copier-Coller qu’on peut faire des discussions IA, on peut imprimer ce qu’on veut ou stocker les fichiers où on souhaite en fonction des centres d’intérêts. Je ne saisis pas la question ou problème soulevé par Mr Zimmermann

Invité
Michael JAREMCZUK
28 jours il y a

Apple avait promis de devenir neutre en énergie consommée et donc, en émission de carbone. Je me souviens même que Tim Cook avait engagé une femme pour diriger cette transition, ce qui avait fait sensation car à l’époque (c’est-à-dire, juste quelques années), elle était la première de son sexe à atteindre un tel niveau de direction. Malheureusement, je ne me souviens plus de son nom, ni des détails.
Nous constatons que depuis moins d’un an, ce même Tim Cook a totalement fait allégeance à celui qui n’a que « Drill, baby drill » en tête, sans parler de son climato-scepticisme notoire.
l’IA locale nous a été vendue par Apple pour répondre à deux défis : sobriété énergétique (ne pas faire tourner des serveurs gourmands en ressources) et sécurité (dispersion des informations du client).
Tant que la production d’électricité se basera sur des ressources fossiles ou nucléaires, l’IA, et les fermes de serveurs qui sont son corollaire, resteront un désastre écologique.
Vous le dites vous-même, l’IA locale est une « petite » IA. Dès lors que la question repose sur des connaissances géographiques, historiques, scientifiques, artistiques, etc. il n’est pas possible de se passer du réseau, et donc, de polluer.
Ma question est : qu’est devenue la promesse d’Apple concernant sa neutralité énergétique ?

Invité
Pierre Mouriès
13 jours il y a
Répondre à  Michael JAREMCZUK

Surprenant de définir les énergies fossiles et nucléaires comme étant toutes deux productrices d’émission de carbone. Le nucléaire est très faible en émission (0,006 kgCO2e/KWH), ce qui en fait une option bas carbone par rapport à tous les moyens de produire une énergie dont on ne peut se passer sauf à régresser vers la pré-histoire.

Invité
Luna Palovi
28 jours il y a
Répondre à  Michael JAREMCZUK

There is no such thing as a « disaster » except in the human-centered vision of the planet, which expects it to be immediately frozen according to our desires or needs. Earth itself has no obligation to obey us: it evolves according to its own laws, cycles, and dynamics far beyond our control. The changes we perceive as catastrophic often reflect our projection of control and stability, rather than objectively disastrous events on a planetary scale. Thus, criticizing certain technologies—such as nuclear energy—solely on the basis of imagined catastrophes can be inaudible, because it confuses human fear with the reality of natural processes. The real ecological question lies not in the illusion of dominating Earth, but in our ability to act thoughtfully and responsibly, minimizing impacts on our species and the ecosystems we share with it.

Invité
Pierre Mouriès
13 jours il y a
Répondre à  Luna Palovi

C’est un peu contradictoire. Si la terre n’obéit pas à nos lois et gère son existence et son développement à sa guise et indépendamment de l’homme, quel est l’intérêt d’agir pour protéger les espèces et l’écosystème ?