Comment installer localement les modèles d’IA DeepSeek, Mistral, ChatGPT, Llama, Phi, Qwen, Gemma et les utiliser localement sur Mac Apple Silicon (M1, M2, M3, M4), PC Windows, PC Linux. Il faut pour cela télécharger LM Studio puis au sein de l’app télécharger ensuite le ou les modèles de votre choix. Au final, vous pourrez discuter avec les différents agents conversationnels hors-ligne avec en plus un visuel sur la consommation CPU et mémoire vive en temps réel. En complément de lecture :
- Comment installer l’application officielle chatGPT pour Mac M1, M2, M3., M4
- Comment installer DeepSeek sur iPhone et Mac
- Comment installer chatGPT sur iPhone : app officielle OpenAI (texte + vocal)
- Comment changer la voix de chatGPT sur iPhone / iPad
- Comment installer Llama sur Mac (IA de Meta)
installer localement les modèles IA sur Mac : installer LM Studio
Télécharger LM Studio depuis son site officiel pour Mac M1, M2, M3, M4, Windows ou Linux en fonction de votre architecture et système d’exploitation. Pour information, LM Studio permet de télécharger et d’exécuter localement des modèles d’intelligence artificielle tels que Mistral, Llama, ou Gemma, sans avoir besoin d’une connexion Internet ni de passer par des serveurs distants. L’installation est simple et se résume à un glisser-déposer vers le dossier Applications.
Lancez LM Studio et prenez le temps de découvrir l’interface particulièrement sobre.
Téléchargez pour commencer le modèle d’AI suggéré. Dans notre exemple, il s’agit de Gemma.
Le téléchargement du modèle débute. Certains modèles nécessitent 4 Go de stockage environ, d’autre plus de 30 Go !
Claquez en bas à droite de l’écran sur la fenêtre en surimpression pour charger le modèle en mémoire (Load Model).
Vous pouvez déjà entamer une discussion avec l’agent conversationnel. Cela fonctionne à merveille.
installer localement les modèles IA sur Mac : charger d’autres LLM
Vous pouvez installer autant de LLM que vous le souhaitez. Pour cela, cliquez sur la loupe en violet. Et choisissez de télécharger celles qui vous correspondent le plus. Le classement peut s’effectuer selon divers critères. La plus téléchargée, la mieux notée, la plus récente, etc.
Dans notre exemple, nous allons ajouter Deep Seek.
Sous l’encart violet, nous éjectons Gemma à l’aide du bouton « Eject ».
Puis, nous chargeont DeepSeek (Load Model) à la place.
Nous pouvons maintenant exploiter le potentiel de DeepSeek sur notre MacBook Air (M2) ! Notez en bas à droite la charge CPU et RAM qui s’affiche en guise d’informations selon la requête évoquée…