Avoir son IA locale personnelle avec Ollama

Avoir son IA locale personnelle avec Ollama

Avant-propos

Aujourd’hui, nous allons nous intéresser au nouvel Eldorado du geek : l’intelligence Artificielle, plus communément appelée par son abréviation : I.A.

Avec cet article, je commence une série de tutoriels qui vont nous amener à créer notre propre Jarvis personnalisé. Mais si vous connaissez, c’est l’I.A personnelle de Tony Stark où plutôt Iron Man. Certes, notre IA personnalisée ne sera pas aussi développée, mais pour un début, vous serez surpris

Mais commençons par le début, aujourd’hui je vous propose d’installer sur votre machine et de découvrir Ollama. Mais c’est quoi Ollama ???

Ollama est un outil simple et convivial qui va vous permettre d’exécuter des modèles de langage de grande taille (les fameux LLM) sur votre ordinateur personnel. En gros, vous allez pouvoir exécuter en local une gamme étendue d’IA. Et croyez-moi avec Ollama des IA, vous allez pouvoir en tester !

Ollama est compatible Windows, Linux et Mac OS. La seule contrainte est d’avoir une machine assez puissante pour ne pas attendre des heures à chaque sollicitation de celle-ci.

Au niveau des configurations, il est conseillé d’avoir un CPU, mais surtout un GPU (une carte graphique) très performante. Sur ce point, pas de secret, il est fortement recommandé d’utiliser une carte graphique de Compute Capability (puissance de calcull en gros) supérieur à 5 et avec un maximum de mémoire embarquée. À ce petit jeu la, les carte Nvidia de la série RTX 50xx sont les plus performantes. Pour ce qui est des Mac, les nouveaux processeurs Mx font très bien le travail. Par contre, les GPU AMD sont moins performants dans le domaine et leur prise en charge dans Ollama est assez récente.

Voici un petit tableau récapitulatif des cartes Nvidia et de leur Compute Capability :

Compute CapabilityFamilleCarte Graphiques
12GeForce RTX 50xxGeForce RTX 5090
GeForce RTX 5080
GeForce RTX 5070 Ti
GeForce RTX 5070
GeForce RTX 5060 Ti
GeForce RTX 5060
GeForce RTX 5050
8.9GeForce RTX 40xxGeForce RTX 4090
GeForce RTX 4080
GeForce RTX 4070 Ti
GeForce RTX 4070
GeForce RTX 4060 Ti
GeForce RTX 4060
GeForce RTX 4050
8.6GeForce RTX 30xxGeForce RTX 3090 Ti
GeForce RTX 3090
GeForce RTX 3080 Ti
GeForce RTX 3080
GeForce RTX 3070 Ti
GeForce RTX 3070
GeForce RTX 3060 Ti
GeForce RTX 3060
GeForce RTX 3050 Ti
GeForce RTX 3050
7.5GeForce GTX/RTXGeForce RTX 2080 Ti
GeForce RTX 2080
GeForce RTX 2070
GeForce RTX 2060
GeForce GTX 1650 Ti
6.1GeForce GTXGeForce GTX 1080 Ti
GeForce GTX 1080
GeForce GTX 1070 Ti
GeForce GTX 1070
GeForce GTX 1060
GeForce GTX 1050 Ti
GeForce GTX 1050
5.2GeForce GTXGeForce GTX 980 Ti
GeForce GTX 980
GeForce GTX 970
GeForce GTX 960
GeForce GTX 950
5.0GeForce GTXGeForce GTX 750 Ti
GeForce GTX

Pour ma part j’ai le choix puisque j’ai un PC Gaming équipé d’une RTX 4070 Ti, un PC plus light équipé d’une GTX 1080 et enfin un MacBook Pro équipé d’un M4 avec 24 Go de ram. Personnellement, quand que je développe je préfère utiliser mon Mac, mais c’est un choix perso. À vous de faire avec votre meilleur matériel possible maintenant que vous connaissez les configurations conseillées pour Ollama !

Installation de Ollama

Pour commencer, il faut se rendre sur le site de Ollama.

Dans la section Download cliquez sur la version qui correspond à votre matériel. Pour ma part je prends MacOS.

Une fois l’exécutable sur votre machine, double-cliquez pour lancer l’installation ou glissez Ollama vers votre dossier Application si vous avez un Mac.

Ensuite, il suffit de lancer Ollama pour se retrouver devant l’interface de base :

Vous vous retrouvez devant le prompt de base pour utiliser une IA. Vous pouvez commencer à l’utiliser et à poser vos prompts pour tester le modèle proposé par défaut : llama.

Mais nous, on va aller un peu plus loin et utiliser le terminal.

Utilisation de Ollama en ligne de commande

Pour rappel sur Mac le terminal par défaut est dans Applications -> Utilitaires -> Terminal

Vous allez saisir votre première commande Ollama :

ollama --version

Cela va vous indiquer la version de Ollama et vous permettre de vérifier que l’installation est bien opérationnelle :

Je vais vous proposer à présent de télécharger un modèle précis de LLM : Deepseek-r1. Pourquoi lui ? Parce qu’il est très performant tout en s’exécutant sur les machines ayant le moins de ressources.

Pour faire cela rien de plus simple, tapez :

ollama pull deepseek-r1

Une fois le modèle sur votre PC, il suffit de le lancer avec la commande :

ollama run deepseek-r1

Vous êtes prêt à taper votre premier prompt ! Par exemple : « Quelle est la capitale du Paraguay »

Vous pouvez également avoir la liste des commandes disponibles en tapant :

/?

Pour sortir tapez :

/bye

Voilà, vous avez fait vos premiers pas avec Ollama et vous disposez désormais d’une IA locale.

En allant dans la section Models de ollama.com, vous allez voir que vous disposez de pas mal de modèles LLM à tester.

Vous avez compris pour télécharger un modèle qui vous intéresse :

ollama pull nom_du_model

Pour le lancer :

ollama run nom_du_model

Pour voir la liste des modèles installés sur votre machine :

ollama list

Enfin, pour supprimer un modèle qui ne vous convient pas :

ollama rm nom_du_model

Vous allez voir qu’un même modèle peut avoir plusieurs versions. Pour faire simple, plus le modèle a une taille en Go élevée, plus il va falloir de la puissance GPU pour le faire fonctionner correctement.

Pour ma part, j’utilise rarement des modèles au-dessus du 14b. Ça me suffit largement par rapport à mes usages.

Vous pouvez désormais vous amuser et tester tous les modèles LLM qui vous tentent. Et ça n’est qu’un début, je vais vous montrer dans de prochains tutos comment faire votre premier chat bot et une version light de Jarvis !

Promis, rien de compliqué.

Comments

No comments yet. Why don’t you start the discussion?

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *