Meilleurs modèles que DeepSeek et comment les installer localement

Certains modèles d'IA peuvent être installés localement

Il y a quelques jours mon partenaire Pablinux leur a dit comment installer localement le modèle d'Intelligence Artificielle à la mode. Dans cet article, je vais énumérer ce que je considère comme de meilleurs modèles que DeepSeek et comment les installer et les exécuter sur notre ordinateur.

Laissant de côté toute sympathie ou antipathie politique, la démarche du gouvernement chinois est un chef-d’œuvre de marketing diplomatique digne de Sun Tzu. Contrairement au style « éléphant dans la porcelaine » de Donald Trump, ils ont annoncé un modèle qui offre les mêmes fonctionnalités que ChatGPT gratuitement et consomme moins de ressources. Seuls ceux d'entre nous qui suivent le sujet le savent Il existe depuis longtemps de nombreux autres modèles open source (certains provenant d'entreprises nord-américaines telles que Meta), et les performances de DeepSeek ne sont comparables à celles de ChatGPT que dans les 5 % d'utilisations les plus courantes.

Modèles linguistiques à grande échelle

ChatGPT, DeepSeek et d'autres sont appelés modèles de langage à grande échelle. Essentiellement Ils permettent à un utilisateur d’interagir avec un ordinateur dans un langage similaire à celui utilisé pour communiquer avec un autre être humain. Pour y parvenir, ils sont entraînés avec de grandes quantités de texte et de règles qui leur permettent de produire de nouvelles informations à partir de ce qu’ils possèdent déjà.
Son utilisation principale est de répondre à des questions, de résumer des textes, de faire des traductions et de reproduire du contenu.

Meilleurs modèles que DeepSeek et comment les installer localement

Comme Pablinux, nous allons utiliser Ollama. Il s'agit d'un outil qui nous permet d'installer, de désinstaller et d'utiliser différents modèles open source à partir du terminal Linux. Dans certains cas, le navigateur peut être utilisé comme interface graphique, mais nous ne couvrirons pas cela dans cet article.

Pour qu'Ollama offre une expérience utilisateur adéquate, il est préférable de disposer d'un GPU dédié.Surtout dans les modèles avec plus de paramètres. Cependant, les moins puissants peuvent être utilisés sur un Raspberry Pi et lorsque j'ai même testé des modèles avec 7 milliards de paramètres sur un ordinateur avec 6 gigaoctets et sans GPU dédié, l'ordinateur a fonctionné sans aucun problème. La même chose ne s’est pas produite avec l’un des 13 milliards.

Les paramètres sont les règles que le modèle utilise pour établir des relations et construire des modèles parmi les données. Plus il y a de paramètres et de données, plus un modèle sera puissant ; ceux qui ont moins de paramètres parlent espagnol comme Tarzan.

Nous pouvons installer Ollama avec les commandes
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh

Nous pouvons installer le modèle avec la commande :
ollama pull nombre_del modelo
Et exécutez-le avec :
ollama run nombre_del_modelo
Nous le désinstallons en utilisant :
ollama rm nombre_del_modelo
Nous pouvons voir les modèles installés en tapant :
ollama list

Voici une petite liste des modèles que je trouve les plus intéressants : La liste complète des modèles disponibles se trouve ici ici !:

llama2-non censuré

Llama est un modèle à usage général créé par Meta. Dans cette version, toutes les restrictions introduites par les développeurs du projet original pour des raisons juridiques ou politiques ont été supprimées.. Il existe deux versions, une légère qui gère 8 Go et la complète qui en a besoin de 64. Il peut être utilisé pour répondre à des questions, écrire des textes ou dans des tâches de codage.
S'installe avec :
ollama pull llama2-uncensored
Et ça marche avec :
ollama run llama2-uncensored

codegemma

CodeGemma est une sélection de modèles légers mais puissants qui vous permettent d'effectuer une variété de tâches de programmation comment compléter le code ou l'écrire à partir de zéro. Comprend le langage naturel, peut suivre des instructions et faire du raisonnement mathématique.

Il existe en 3 variantes :

  • Instruire: Il transforme le langage naturel en code et peut suivre des instructions :
  • Code:  Compléter et générer du code à partir de parties de code existantes.
  • 2b: Tâche de complétion de code plus rapide.

Tynillama

Comme son nom l'indique, il s'agit d'une version plus petite du modèle Meta original.. Cela n'aura donc pas d'aussi bons résultats, mais si vous voulez voir comment fonctionne un modèle d'intelligence artificielle sur du matériel modeste, cela vaut la peine d'essayer. Il ne contient que 1100 milliard de paramètres.

L’utilisation de modèles locaux présente les avantages de la confidentialité et de l’accès à des versions non censurées et impartiales qui, dans certains cas, ont tendance à s’avérer ridicules. L'IA de Microsoft a refusé de créer une image d'un teckel pour moi parce qu'elle considérait le terme « salope » comme offensant. Le plus gros inconvénient réside dans la configuration matérielle requise. Il s’agira d’essayer les modèles et d’en trouver un qui soit suffisamment bon pour ce dont vous avez besoin et qui puisse fonctionner sur l’équipement dont vous disposez.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.