Comment installer localement les modèles IA sur Mac (ChatGPT, DeepSeek, Mistral, Llama…)

Comment installer localement les modèles d’IA DeepSeek, Mistral, ChatGPT, Llama, Phi, Qwen, Gemma et les utiliser localement sur Mac Apple Silicon (M1, M2, M3, M4), PC Windows, PC Linux. Il faut pour cela télécharger LM Studio puis au sein de l’app télécharger ensuite le ou les modèles de votre choix. Au final, vous pourrez discuter avec les différents agents conversationnels hors-ligne avec en plus un visuel sur la consommation CPU et mémoire vive en temps réel. En complément de lecture :

installer localement les modèles IA sur Mac : installer LM Studio

Télécharger LM Studio depuis son site officiel pour Mac M1, M2, M3, M4, Windows ou Linux en fonction de votre architecture et système d’exploitation. Pour information, LM Studio permet de télécharger et d’exécuter localement des modèles d’intelligence artificielle tels que Mistral, Llama, ou Gemma, sans avoir besoin d’une connexion Internet ni de passer par des serveurs distants. L’installation est simple et se résume à un glisser-déposer vers le dossier Applications.

Comment installer localement les modeles IA sur Mac avec lm studio
Lancez LM Studio et prenez le temps de découvrir l’interface particulièrement sobre.
LM studio mac
Téléchargez pour commencer le modèle d’AI suggéré. Dans notre exemple, il s’agit de Gemma.
telecharger modele IA sur mac
Le téléchargement du modèle débute. Certains modèles nécessitent 4 Go de stockage environ, d’autre plus de 30 Go !
telecharger llm sur ordinateur
Claquez en bas à droite de l’écran sur la fenêtre en surimpression pour charger le modèle en mémoire (Load Model).
tuto llm sur macbook
Vous pouvez déjà entamer une discussion avec l’agent conversationnel. Cela fonctionne à merveille.
lm studio macbook air

installer localement les modèles IA sur Mac : charger d’autres LLM

Vous pouvez installer autant de LLM que vous le souhaitez. Pour cela, cliquez sur la loupe en violet. Et choisissez de télécharger celles qui vous correspondent le plus. Le classement peut s’effectuer selon divers critères. La plus téléchargée, la mieux notée, la plus récente, etc.
installer une ia sur son mac
Dans notre exemple, nous allons ajouter Deep Seek.
installer deepseek localement sur mac
Sous l’encart violet, nous éjectons Gemma à l’aide du bouton « Eject ».
lm studio tutoriel
Puis, nous chargeont DeepSeek (Load Model) à la place.
utiliser deepseek localement sur son mac
Nous pouvons maintenant exploiter le potentiel de DeepSeek sur notre MacBook Air (M2) ! Notez en bas à droite la charge CPU et RAM qui s’affiche en guise d’informations selon la requête évoquée…
installation deepseek mac apple silicon

Laisser un commentaire