Vesta, Locally AI et Russet : trois chatbots qui exploitent l’IA au cœur du Mac
Pour explorer Apple Foundation, rien de mieux qu’un chatbot. Mais aucun des outils que vous utilisez aujourd’hui, ni ChatGPT, ni Comet, ni Claude, ni aucun navigateur IA du marché ne tirent parti du framework Apple Foundation. Il faut se tourner vers des projets tout nouveaux de jeunes développeurs indépendants. Je vous propose de découvrir trois chatbots grâce auxquels vous pouvez discuter, en toute confidentialité, avec l’IA embarquée d’Apple.

NB : pour mieux comprendre cet article, je vous suggère de lire avant celui-ci, paru en même temps ; il vous fait découvrir Apple Foundation Models.
Avec macOS 26 Tahoe, Apple livre, intégré au système, divers modèles d’IA. C’est aussi le cas d’iOS et d’iPadOS 26, et même de visionOS). Certains, très spécialisés, sont utilisés pour le travail des images (par exemple, dans Photos) ou pour le traitement de la voix pour la dictée et la transcription (on retrouve cette option Apple locale dans la plupart des applications voix > texte du marché). Il y a également un petit « grand modèle » généraliste, conçu pour effectuer des tâches sur le texte, et pour répondre à des questions d’ordre général. C’est un peu comme GPT, Gemini ou Mistral…, mais, comme ce modèle est plus petit et n’opère qu’en local, sans accès au web, on ne peut pas attendre de lui les mêmes services. Il y a une version plus « grande » sur les serveurs IA d’Apple, que les développeurs tiers ne peuvent pas exploiter actuellement.
Apple donne aux développeurs un accès gratuit à ce modèle. Des applications qui en tirent parti commencent donc à sortir.
Depuis quelques semaines, au moins trois interfaces conversationnelles du même style que ChatGPT – sont disponibles. Gratuits, ces chatbots permettent de dialoguer avec le modèle intégré d’Apple, comme on le ferait avec d’autres modèles d’IA – mais dans le cadre cependant limité d’un modèle local. Pour ce qui est du modèle Apple Foundation embarqué sur l’appareil, la fenêtre de contexte est limitée à 4096 jetons (tokens) par session au maximum. Cela représente environ 3 000 mots ou 20 000 caractères (espaces compris), soit approximativement huit à dix pages de texte. Si la conversation (comprenant les prompts de l’utilisateur et les réponses de l’IA) dépasse ce niveau, l’IA y met automatiquement fin.
Mes expériences avec ces trois applications ont été très diverses. À un instant T, le modèle peut répondre parfaitement à une question dans Russet, alors qu’il disjoncte totalement dans Vesta. Mais ce peut être l’inverse à un autre moment, ou avec d’autres types de questions. Parfois, le modèle répond… qu’il ne peut pas répondre, ne fournit aucune explication. Il faut revenir plus tard à la charge… Il y a aussi encore pas mal de petits bogues dans tous ces chatbots. Pour l’heure, on reste très clairement encore dans l’expérimentation.
Vesta et Russet sont conçus autour du seul modèle embarqué d’Apple
Interface sobre, typographie SF Pro et localisation en français, Vesta affiche une interface classique qui annonce clairement la couleur : la mention « Apple Intelligence » est placée à trois endroits différents, afin qu’il n’y ait aucune ambiguïté.
Le fonctionnement est simple : on tape quelque chose dans le champ de prompt en bas de la fenêtre, et on attend que l’IA d’Apple réponde… presque instantanément. Au lieu de taper au clavier, on peut dicter les requêtes, pour une conversation plus naturelle. L’icône orange à côté du micro ne sert pas à charger une pièce jointe, mais un adaptateur LoRA (Low-Rank Adaptation) ; les adaptateurs LoRA sont des modules légers utilisés pour « adapter » un modèle à des tâches spécifiques sans avoir à le réentraîner complètement.
En haut, la petite icône verte des réglages avancés permet de créer un profil et de donner des instructions générales à l’IA, ainsi que des options pour affiner les résultats en jouant sur différents paramètres. Cela demande un minimum de connaissances du domaine pour ne pas faire n’importe quoi – bien qu’on ne risque rien à expérimenter. Cliquer le bouton Avis Vesta renvoie une brève analyse des réglages personnalisés. Il est possible d’enregistrer des configurations et d’en charger une depuis cette fenêtre.
Vesta prend en charge le rendu du langage de balisage et de composition LaTeX Math pour les équations.
L’indication, tout en bas à droite de la fenêtre, des jetons consommés (tokens), est informative : l’usage de l’Apple Foundation Model est gratuit, ne fait l’objet d’aucune facturation, mais une même session avec le modèle ne peut aller au-delà d’un certain nombre de jetons. Ce nombre atteint, il faut ouvrir une nouvelle conversation (qui ne saurait reprendre sur la mémoire de la précédente). On retrouve cette indication dans les deux autres chatbots.
La limitation la plus gênante est que Vesta ne prend pas en charge l’historique des conversations. On peut certes enregistrer chaque conversation sous forme d’un fichier .text et le ouvrir dans TextEdit, par exemple, pour en extraire les éléments intéressants, mais Vesta n’est, pour l’heure, pas capable de rouvrir lui-même ces fichiers pour poursuivre un échange.



C’est sur ce point que Russet se distingue, puisque je peux, depuis sa barre latérale, reprendre une conversation que j’ai arrêtée.
Russet est le dernier chatbot que j’ai croisé dans ma quête. C’est une app iPad qui fonctionne bien sur macOS ; on ne s’en rend pas compte – sauf quand on ouvre les Settings standards, qui sont celles d’une application Catalyst. Toutefois, le développeur indique vouloir proposer une vraie application Mac dans un futur proche.
Comme Vesta, Russet n’exploite que le modèle embarqué d’Apple. Dans ses propres réglages (le petit engrenage), on peut activer une option Réponses concises – la désactiver permet d’obtenir des réponses un peu plus détaillées. On peut également jouer avec un curseur de créativité. La version que vous devriez pouvoir télécharger demain depuis le Mac App Store (passez dans l’onglet Apps pour iPhone et iPad) permettra de rédiger un prompt système, afin de cadrer l’IA avec vos informations et vos propres directives.
L’interface de Russet peut être claire, sombre ou automatique. L’option Haptics n’a de sens que sur un iPad.
Parmi les fonctions disponibles, Russet prend en charge le partage des conversations via la feuille Partager standard d’Apple. Le raccourci clavier [cmd] [F] permet d’effectuer une recherche au sein de la conversation courante. Dans la barre latérale, sur un clic droit, chaque conversation peut être renommée ou supprimée – un menu Services propose les mêmes actions que la section Services du menu contextuel du Finder. Un autre petit menu local, en bas de cette colonne, laisse faire des tris. Russet est encore en plein développement, mais il est déjà bien outillé et peut-être utilisé au quotidien.


Cependant, comme je l’ai dit plus haut, il ne faut pas s’attendre du tout aux mêmes résultats qu’avec GPT, Gemini, Mistral ou tout autre grand modèle distant.
Souvent, ça marche, mais aussi souvent ça ne marche pas, ça répond à côté, ça invente, ou l’IA refuse de répondre tout simplement.
Locally AI permet d’expérimenter l’IA en local avec de nombreux modèles
Locally AI, d’Adrien Grondrin, est à mon avis le plus avancé dans son développement. Il existait déjà sur iOS et IPadOS et a été porté sur macOS. C’est une application native qui utilise Foundation Model d’Apple, et permet aussi de travailler avec différents autres LLM locaux optimisés pour les puces Apple grâce à MLX.
L’interface, en anglais, est typique d’un chatbot, élégante, teintée d’un dégradé vert-bleu léger, qui disparaît une fois que la conversation est commencée.
En haut, le menu local permet de choisir un modèle et affiche son nom ; on peut changer de modèle au cours d’une conversation. En bas, au-dessus de la zone de prompt, une dizaine d’invites préprogrammées sont proposées (on ne peut faire défiler ce bandeau horizontal qu’avec un trackpad, intégré ou externe). Sur la gauche la barre latérale escamotable empile les conversations. Il n’est malheureusement pas possible d’en supprimer, une à une, mais, dans les réglages, un bouton efface tout l’historique.
Il faut évidemment passer dans les réglages pour découvrir les options que propose Locally. Il n’y a que des informations sur l’application dans General.
La visite de l’onglet Models est en revanche beaucoup plus intéressante. Le premier listé est Apple Foundation, utilisé par défaut. Dessous, de nombreux autres modèles sont proposés, créés par de grands acteurs du marché – Google, Meta, Qwen, DeepSeek… –, fournis via Huggingface, la plus importante plateforme open source dédiée à l’IA.
Chaque modèle est brièvement décrit. Des tags colorés indiquent pour quelle tâche chacun est principalement conçu – par exemple, Thinking (raisonnement) ou Vision (permet de travailler avec des images, des captures d’écran…). Si le modèle requiert un usage important du CPU, Locally AI l’indique par un tag rouge. Mieux vaut alors avoir une configuration plus musclée.



« grands » chatbots.
Il peut y avoir plusieurs variantes pour un modèle donné, avec d’autres explications et l’occupation disque clairement indiquée. Il faudra télécharger sur le Mac ceux que l’on souhaite exploiter, en cliquant sur les boutons Download. Un modèle téléchargé est indiqué par une petite puce verte cochée. Mieux encore, l’application propose un bouton en regard des modèles installés pour faire le nettoyage du Mac. Ce qui évite de laisser sur le Mac des modèles inutilisés qu’il n’est pas évident de retrouver ; il faut des outils d’analyse du stockage – j’utilise toujours l’utilitaire GrandPerspective, gratuit, qui remplit parfaitement sa fonction.
Dans les Réglages, l’écran Personalize propose de rédiger un prompt système qui encadrera les IA dans leur travail. On ne peut pas concevoir un prompt par modèle.
Pour un utilisateur Mac encore peu familier de l’IA et des outils, Locally AI permet d’apprendre à travailler avec avec plusieurs IA, à expérimenter, sans que rien ne quitte le Mac. Il sait reprendre une conversation, alors qu’on est passé une autre, tant qu’elle n’est pas supprimée de l’historique et de la mémoire.
Locally est une bonne solution pour comprendre ce qu’implique le choix d’un modèle : taille, vitesse, style de réponse. Enfin, tout ici est gratuit, aussi bien Locally AI que les modèles auxquels il donne accès.
Vesta, Locally AI et Russet n’ont rien de spectaculaire. Leur intérêt, c’est la proximité, la confidentialité et la gratuité. Ils permettent de dialoguer facilement avec Apple Foundation – et parfois d’autres modèles dans le cas de Locally AI – et de se faire la main à l’utilisation des modèles d’AI. C’est une première approche de l’IA générative, concrète, amusante, avant de partir pour d’autres explorations.
Cependant, je le répète, les modèles locaux sont limités, plus légers, moins bavards, font des fautes de français et hallucinent aussi – même le Foundation Model d’Apple… Leur jeu de fonctions s’avère restreint (contingent au modèle avec lequel on discute).
Ils ne remplacent donc absolument pas un service d’IA en ligne.
Mais j’ai toujours tendance à voir le verre à moitié plein qu’à moitié vide et, pour moi, l’expérience vaut le coup, car ces chabots sont à l’avant-garde d’une « intelligence artificielle personnelle », d’une IA qui travaille là où sont nos données. Tout cela progressera au fur et à mesure que nos matériels nous permettront de travailler avec des modèles plus grands ou peut-être plutôt avec des cocktails de modèles petits ultra optimisés et d’agents ciblés sur des tâches précises, plutôt qu’avec des modèles généralistes.
Informations Vesta (sur GitHub)
Informations Russet – Offline & Private AI (sur le MAS)
Informations Locally AI – Local AI Chat (sur le MAS)

merci pour ces articles de qualité ! 🤘🏼
merci pour cette revue bien que désormais « largué »!!
Bonjour! Ne vous inquiétez pas. Je ne vais pas écrire qu’à propos d’IA (même si, à vrai dire, il ne se passe plus rien d’autre ou presque en dehors de cela).
J’ai des articles sur l’utilisation de macOS sur le métier, pour Apple Notes, pour créer, organiser et utiliser des bases de documents…
et des articles sur des utilitaires gratuits, accessibles à tous et toujours pratiques à avoir dans sa boîte à outils.