Ollama : télécharger et exécuter un modèle d’IA sur son PC

L’intelligence artificielle (IA) est désormais accessible à tous, même sans compétences avancées en programmation. Grâce à des outils comme Ollama, vous pouvez facilement télécharger, installer et exécuter des modèles d’IA directement sur votre PC. Dans ce guide, nous allons vous montrer comment procéder étape par étape.

Faire tourner des modèles IA sur son PC ou son Mac

Illustration d'Ollama

Depuis ChatGPT, l’IA est partout. On l’utilise pour le travail, pour programmer ses vacances, pour relire ses mails. On lui pose des questions concernant l’univers et certains même l’utilisent comme un journal intime. On voit chaque semaine de nouveaux modèles ouverts au grand public comme très récemment avc GPT-OSS-20b et GPT-OSS-120b. Dans tout cela, comment est-ce qu’on fait pour avoir son propre modèle d’IA ? Est-il possible chez soi ou dans son entreprise d’avoir son IA dédiée à une tâche sans passer par un géant technologique comme Microsoft ou OpenAI ? La réponse est Oui ! D’ailleurs, c’est même possible de faire cela en utilisant des logiciels libres et open source.

Qu’est-ce qu’Ollama ?

Ollama est une application open-source qui permet d’exécuter des modèles d’IA localement sur votre machine. Elle est conçue pour être simple d’utilisation, légère et compatible avec une variété de modèles, comme Llama, Mistral, Gemma et bien d’autres.

Prérequis avant l’installation

Avant de commencer, assurez-vous que votre PC répond aux exigences suivantes :

  • Système d’exploitation : Windows 10/11, macOS ou Linux.
  • Espace disque : Au moins 8 Go d’espace libre pour les modèles et les dépendances.
  • Mémoire vive (RAM) : 8 Go minimum (16 Go recommandés pour une meilleure performance).
  • Processeur : Un CPU moderne (Intel i5/AMD Ryzen ou supérieur). Un GPU (NVIDIA ou AMD) est un plus pour accélérer les calculs.

Téléchargement et installation d’Ollama

Pour installer et utiliser Ollama il va falloir utiliser le Terminal. Ce n’est que quelques lignes de commandes relativement simplifiés, cependant l’application ne propose pas par défaut une interface graphique.

Sur Windows et macOS

  1. Télécharger Ollama : Rendez-vous sur le site officiel d’Ollama : ollama.ai. Cliquez sur le bouton de téléchargement correspondant à votre système d’exploitation.
  2. Installer Ollama :
    • Ouvrez le fichier téléchargé (.exe pour Windows, .dmg pour macOS).
    • Suivez les instructions d’installation à l’écran.
    • Sur Windows, cochez la case pour ajouter Ollama au PATH si cette option est proposée.
  3. Vérifier l’installation : Ouvrez un terminal (ou PowerShell sur Windows) et tapez la commande suivante : ollama --version Si la version d’Ollama s’affiche, l’installation est réussie.

Sur Linux

  1. Installer via la ligne de commande : Ouvrez un terminal et exécutez la commande suivante : curl -fsSL https://ollama.ai/install.sh | sh Suivez les instructions pour finaliser l’installation.
  2. Vérifier l’installation : Tapez la commande : ollama --version
Si vous voyez cette ligne dans votre console c’est qu’Ollama est bien installé

Télécharger un modèle d’IA avec Ollama

Une liste des modèles est disponible sur le site officiel. Vous pouvez télécharger Qwen d’Alibaba, GPT d’OpenAI, Gemma de Google. Bref, beaucoup des modèles open source du moment sont présents.

Ollama permet de télécharger facilement des modèles d’IA populaires. Voici comment procéder :

  1. Lister les modèles disponibles : Dans votre terminal, tapez : ollama list (Cette commande affichera les modèles déjà téléchargés.)
  2. Télécharger un modèle : Par exemple, pour télécharger le modèle Llama 3, utilisez : ollama pull llama3
  3. Remplacez llama3 par le nom du modèle de votre choix (ex. : mistral, phi3, etc.).
  4. Vérifier le téléchargement : Une fois le téléchargement terminé, tapez à nouveau : ollama list Le modèle téléchargé devrait apparaître dans la liste.

5. Exécuter un modèle d’IA localement

Console avec Ollama
Exemple de prompt avec Ollama

Maintenant que votre modèle est téléchargé, vous pouvez l’exécuter en local.

  1. Lancer le modèle : Utilisez la commande suivante pour démarrer une session avec le modèle : ollama run llama3 (Remplacez llama3 par le nom de votre modèle.)
  2. Interagir avec l’IA : Une fois le modèle lancé, vous pouvez lui poser des questions directement dans le terminal. Par exemple : >>> Qu’est-ce que l’intelligence artificielle ? Le modèle répondra en temps réel.
  3. Arrêter le modèle : Pour quitter la session, tapez /bye ou utilisez le raccourci Ctrl + C.

Les limitations liées à l’utilisation d’un CPU ou d’un manque de RAM

Parce que tout n’est pas tout rose, vous le devinez sûrement, executer un LLM sur son PC n’est pas aussi facile que d’en utiliser en ligne. Exécuter des modèles d’IA localement avec Ollama peut rapidement rencontrer des limites matérielles, surtout si votre machine ne dispose que d’un CPU standard ou d’une mémoire vive (RAM) insuffisante. Les modèles d’IA modernes, comme Llama 3 ou Mistral, sont conçus pour fonctionner de manière optimale avec des GPU dédiés (comme ceux de NVIDIA ou AMD), capables d’accélérer les calculs parallèles nécessaires au traitement du langage naturel. Sans GPU, un CPU seul peut ralentir considérablement les temps de réponse, rendant l’expérience moins fluide, voire frustrante pour des tâches complexes ou des requêtes longues. Pensez aussi bien refroidir votre machine.

De plus, un manque de RAM (moins de 8 Go, par exemple) peut entraîner des erreurs de mémoire, des plantages, ou forcer le système à utiliser la mémoire virtuelle (le disque dur), ce qui dégrade encore les performances. Certains modèles légers, comme Phi-3 ou TinyLlama, sont mieux adaptés aux configurations modestes, mais les modèles plus puissants nécessitent souvent 16 Go de RAM ou plus pour fonctionner correctement. Si votre PC est limité en ressources, privilégiez des modèles optimisés pour les environnements légers, ou envisagez une mise à niveau matérielle pour profiter pleinement des capacités de l’IA locale. Enfin, gardez à l’esprit que les tâches gourmandes en calcul (comme la génération de texte long ou le fine-tuning) peuvent être difficiles, voire impossibles, sans une configuration adaptée.

Conclusion

Avec Ollama, exécuter un modèle d’IA sur votre PC n’a jamais été aussi simple. Que vous soyez développeur, chercheur ou simplement curieux, cet outil vous permet d’explorer les possibilités de l’IA en local, sans dépendre de services cloud.

N’hésitez pas à expérimenter avec différents modèles et à partager vos retours avec la communauté Ollama !

Article précédent

Micro-casque gaming : quel est le meilleur ? (2023)

Écrire un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *