IA : Apple veut jouer la carte du local à défaut d’avoir (encore) le cloud
Apple vient de dévoiler de nouveaux produits : un MacBook Air et deux modèles haut de gamme destinés aux professionnels. Ces machines intègrent toutes une nouvelle puce : le SoC M5 pour le MacBook Air, et ses versions M5 Pro et M5 Max pour les modèles professionnels.
Les améliorations de performances globales sont notables, mais pas exceptionnelles. En revanche, Apple a surtout insisté sur l’architecture du M5 et sur les composants du SoC dédiés aux traitements d’IA. C’est particulièrement vrai pour les versions Pro et Max qui adoptent l’architecture Fusion, optimisant l’interconnexion des cœurs pour booster l’inférence. Cela dit des choses de l’avenir de l’intelligence artificielle générative chez Apple et, à mon avis, permet d’imaginer une stratégie que l’on ne voyait pas venir.
Face à la difficulté de déployer avant quelques années l’infrastructure technique colossale nécessaire aux fermes de serveurs IA nécessaires pour alimenter des millions d’utilisateurs iPhone, iPad et Mac, Apple se tourne vers des collaborations externes, notamment avec OpenAI puis, plus récemment, Google pour le développement du nouveau Siri. Cette dépendance pourrait être une source de préoccupation pour la direction, habituée à une autonomie technologique.
Néanmoins, Apple commence à déployer son propre Private Cloud Compute (PCC), des serveurs utilisant ses propres puces pour traiter les requêtes trop lourdes sans dépendre de tiers. Elle travaille aussi sur des puces entièrement dédiées à l’entraînement des modèles et à l’inférence. Mais cela n’est pas suffisant pour revenir au tout premier plan…

La puce M5 suggère qu’Apple prépare un avenir différent de celui que la plupart des commentateurs, moi compris, envisageaient jusqu’ici.
Si l’entreprise collabore actuellement avec OpenAI, Google et d’autres, elle met en place les fondations pour une exploitation de plus en plus locale de l’IA. L’objectif ?
Ne serait-il pas de s’affranchir en grande partie du cloud, de ses coûts exorbitants et de partenariats jugés « embarrassants », tout en verrouillant son argument fétiche : la vie privée. En traitant les données localement, Apple transforme la confidentialité en un avantage compétitif majeur.
Le nouveau MacBook Air, équipé de la version de base de la puce M5, est déjà fortement optimisé pour l’IA. Il bénéficie d’une mémoire unifiée de base de 16 Go avec une bande passante mémoire de 153 GB/s (cruciale pour les traitements IA), d’un CPU et d’un GPU plus rapides, ainsi que d’une intégration repensée des Neural Engines.
Dans le domaine de l’IA, le M5 offrirait des performances jusqu’à quatre fois supérieures à celles du M4 de l’an passé !
Les capacités d’inférence nécessaires pour faire fonctionner des modèles compacts (LLM de quelques milliards de paramètres, modèles multimodaux optimisés) tournent déjà correctement sur des machines équipées d’un SoC M1 Pro. Si ce niveau de puissance descend avec le MacBook Neo vers 599 $, la base installée capable d’exécuter de l’IA localement devient immense.
Bien que le MacBook Air M5 reste encore onéreux pour le grand public (à partir de 1199 €), des capacités IA équivalentes, voire meilleures, devraient être accessibles sur des modèles d’entrée de gamme d’ici deux ans, potentiellement au niveau d’un futur MacBook Neo 3. Si les coûts des composants n’oblitèrent pas cette stratégie, l’arrivée de Mac d’entrée de gamme, avec 24 Go de mémoire, pour environ 700 € n’est pas irréaliste, et si, parallèlement, les progrès sur les modèles d’IA multicompétents (intelligence multimodale) et compacts se poursuivent, Apple pourrait être en mesure de déployer une gamme de machines matures et autonomes pour le plus large public. Alors que la course aux centres de données et à la production d’énergie pour les alimenter domine l’actualité technologique, Apple adopte en toute discrétion une stratégie distincte qui, je commence à le penser, pourrait s’avérer gagnante à moyen terme. ✿

J’aimerais accéder directement aux actualités de la semaine sans avoir à passer par un menu à onglets
Il y a un bouton en haut de la page d’accueil, sur toute la largeur. Il suffit de cliquer dessus.
Pas besoin d’aller dans la barre de menu du site > Flash! (ça, c’est pour accéder aux Flash! précédents).
Bernard, c’est une bonne observation. Le M5 Max offre un niveau de performance IA radicalement différent. Des benchmarks de différents modèles locaux tournent déjà, et je suis personnellement impatient de l’acheter pour faire tourner des modèles comme Qwen3.5 plutôt que ceux dans le cloud ! Cependant, j’attends en réalité le M6 et l’OLED, donc les fournisseurs cloud vont encore me soutirer de l’argent pendant un bon moment 😉