Installer DeepSeek sur Linux en 3 minutes

DeepSeek, fondé en 2023 par Liang Wenfeng, est une entreprise chinoise d'intelligence artificielle qui développe des modèles de langage de grande taille (LLM) en open-source. Son modèle phare, DeepSeek-R1, gagne en popularité grâce à ses capacités de raisonnement avancées, avec des performances comparables à celles d'OpenAI-o1 dans des tâches comme les mathématiques, le code et le raisonnement général. Dans ce guide, nous vous aiderons à installer DeepSeek-R1 sur un système Linux, ainsi que des détails importants sur les variantes du modèle.

Prérequis

Remarque : DeepSeek-R1 est un modèle 671B avec une architecture Mixture of Experts (MoE) nécessitant 1,5 TB de VRAM, ce qui le rend inaccessible pour les utilisateurs de matériel grand public. Les modèles distillés de DeepSeek-R1, comme DeepSeek-R1-Distill-Qwen-7B et DeepSeek-R1-Distill-LLaMA-70B, sont des versions affinées de modèles open-source comme LLaMA et Qwen, entraînés sur des données générées par DeepSeek-R1. Ils héritent ainsi des capacités de raisonnement de DeepSeek tout en étant beaucoup plus efficaces pour l'auto-hébergement. Enjoy !

Avant de démarrer, assurez-vous de disposer des caractéristiques suivantes :

  • Système d'exploitation : Ubuntu 22.04 ou une distribution Linux similaire. (Debian/basée sur Debian vous facilitera la vie)
  • Matériel : CPU moderne avec au moins 16 Go de RAM ; un GPU dédié. (Les GPU NVIDIA sont déjà bien testés)
  • Logiciel : Python 3.8 ou plus récent, et Git installé sur votre système. (Probablement déjà installé, vérifiez d'abord)
  • Espace disque libre : Au moins 10 Go pour les petits modèles ; les modèles plus grands comme le 671b nécessitent beaucoup plus d'espace ! 

Étape 1 : Installer Ollama

Ollama est un outil conçu pour exécuter des modèles d'IA localement. Ouvrez votre terminal et lancez :

curl -fsSL https://ollama.com/install.sh | sh

Cette commande télécharge et exécute le script d'installation d'Ollama. Pendant l'installation, Ollama se configure automatiquement et démarre les services requis. Une fois le processus terminé, vérifiez l'installation en contrôlant la version :

ollama --version

Pour vérifier si Ollama est déjà en cours d'exécution, utilisez :

systemctl is-active ollama.service

Si la réponse de sortie est active, le service est en cours d'exécution et vous pouvez passer à l'étape suivante. Si ce n'est pas le cas, démarrez-le manuellement : 

sudo systemctl start ollama.service

Pour que le service soit toujours lancé au démarrage du système, exécutez :

sudo systemctl enable ollama.service

Étape 2 : Télécharger et exécuter DeepSeek-R1 

DeepSeek-R1 comprend divers modèles distillés et affinés à partir des architectures Qwen et Llama, chacun étant optimisé pour des exigences spécifiques en matière de performances et de ressources. Voici comment commencer :

Pour télécharger et exécuter le modèle 7b, utilisez la commande :

ollama run deepseek-r1:7b

Si votre système dispose de ressources limitées (comme le mien, 16 Go de RAM et seulement 8 Go de GPU AMD), vous pouvez choisir un modèle plus petit :

  • 1.5b : Utilisation minimale des ressources.
  • 7b : Équilibre entre les performances et les besoins en ressources.
  • 8b, 14b, 32b : Options intermédiaires pour des résultats supérieurs. 

La taille des téléchargements pour ces modèles varie :

  • 1.5b : ~2.3GB
  • 7b : ~4.7GB
  • 70b : ~40GB+

Visitez la bibliothèque de modèles DeepSeek pour une liste complète des modèles, leurs tailles et leurs détails. 

Étape 3 : Commencer à interroger DeepSeek

Une fois la commande d'installation terminée, elle lance automatiquement DeepSeek R1, ce qui signifie qu'il n'y a plus rien à configurer - votre installation est terminée. Vous avez réussi à installer DeepSeek sur Linux ! Allez-y et saisissez votre première invite.

A chaque fois que vous souhaitez lancer DeepSeek à nouveau, répétez simplement la commande run. 

Lister et supprimer des modèles

Pour afficher tous les modèles téléchargés, exécutez la commande suivante : 

ollama list

Pour supprimer un modèle installé et libérer de l'espace disque, utilisez la commande suivante :

ollama rm deepseek-r1:70b

Remplacez 70b par la taille de modèle correspondant, par exemple 7b ou 8b. Cela supprimera le modèle spécifié de votre système. Une fois supprimé, vous pourrez télécharger et exécuter un autre modèle. Si vous recherchez DeepSeek-R1 sans censure ni restriction de contenu, vous pouvez utiliser open-r1.

Conclusion

Avec ce guide, vous avez appris à installer DeepSeek-R1 sur votre système Linux et à explorer ses modèles polyvalents. Que vous utilisiez le modèle léger 1.5b ou le modèle performant 70b, DeepSeek offre des capacités de raisonnement de pointe directement sur votre machine. Prêt à passer à l'étape suivante ? Commencez à tester DeepSeek !

source :

https://linuxblog.io/install-deepseek-linux/ 

Ajouts de Linkzilla :

Exécuter DeepSeek avec une interface Web (Open WebUI) :

En utilisant Open WebUI, vous pouvez interagir aisément avec DeepSeek à travers une interface centralisée et conviviale. Open WebUI peut être installé à l'aide de pip, le programme d'installation de paquets Python.

Installez Open WebUI :

Ouvrez votre terminal et exécutez la commande suivante pour installer Open WebUI :

pip install open-webui

Vous pouvez également procéder à l'installation avec Snap

sudo apt update
sudo apt install snapd
sudo snap install open-webui --beta

Lancer Open WebUI :

Après l'installation, vous pouvez démarrer Open WebUI en exécutant :

open-webui serve

Ceci démarrera le serveur Open WebUI, auquel vous pouvez accéder à http://localhost:8080. 

Désinstallation :

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service 

sudo rm $(which ollama)

Nettoyer les modèles restants et les utilisateurs et groupes précédemment créés :

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

0 Commentaires

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Post a Comment (0)

Plus récente Plus ancienne