Avant-propos
Aujourd’hui, nous allons nous intéresser au nouvel Eldorado du geek : l’intelligence Artificielle, plus communément appelée par son abréviation : I.A.
Avec cet article, je commence une série de tutoriels qui vont nous amener à créer notre propre Jarvis personnalisé. Mais si vous connaissez, c’est l’I.A personnelle de Tony Stark où plutôt Iron Man. Certes, notre IA personnalisée ne sera pas aussi développée, mais pour un début, vous serez surpris
Mais commençons par le début, aujourd’hui je vous propose d’installer sur votre machine et de découvrir Ollama. Mais c’est quoi Ollama ???
Ollama est un outil simple et convivial qui va vous permettre d’exécuter des modèles de langage de grande taille (les fameux LLM) sur votre ordinateur personnel. En gros, vous allez pouvoir exécuter en local une gamme étendue d’IA. Et croyez-moi avec Ollama des IA, vous allez pouvoir en tester !
Ollama est compatible Windows, Linux et Mac OS. La seule contrainte est d’avoir une machine assez puissante pour ne pas attendre des heures à chaque sollicitation de celle-ci.
Au niveau des configurations, il est conseillé d’avoir un CPU, mais surtout un GPU (une carte graphique) très performante. Sur ce point, pas de secret, il est fortement recommandé d’utiliser une carte graphique de Compute Capability (puissance de calcull en gros) supérieur à 5 et avec un maximum de mémoire embarquée. À ce petit jeu la, les carte Nvidia de la série RTX 50xx sont les plus performantes. Pour ce qui est des Mac, les nouveaux processeurs Mx font très bien le travail. Par contre, les GPU AMD sont moins performants dans le domaine et leur prise en charge dans Ollama est assez récente.
Voici un petit tableau récapitulatif des cartes Nvidia et de leur Compute Capability :
| Compute Capability | Famille | Carte Graphiques |
| 12 | GeForce RTX 50xx | GeForce RTX 5090 GeForce RTX 5080 GeForce RTX 5070 Ti GeForce RTX 5070 GeForce RTX 5060 Ti GeForce RTX 5060 GeForce RTX 5050 |
| 8.9 | GeForce RTX 40xx | GeForce RTX 4090 GeForce RTX 4080 GeForce RTX 4070 Ti GeForce RTX 4070 GeForce RTX 4060 Ti GeForce RTX 4060 GeForce RTX 4050 |
| 8.6 | GeForce RTX 30xx | GeForce RTX 3090 Ti GeForce RTX 3090 GeForce RTX 3080 Ti GeForce RTX 3080 GeForce RTX 3070 Ti GeForce RTX 3070 GeForce RTX 3060 Ti GeForce RTX 3060 GeForce RTX 3050 Ti GeForce RTX 3050 |
| 7.5 | GeForce GTX/RTX | GeForce RTX 2080 Ti GeForce RTX 2080 GeForce RTX 2070 GeForce RTX 2060 GeForce GTX 1650 Ti |
| 6.1 | GeForce GTX | GeForce GTX 1080 Ti GeForce GTX 1080 GeForce GTX 1070 Ti GeForce GTX 1070 GeForce GTX 1060 GeForce GTX 1050 Ti GeForce GTX 1050 |
| 5.2 | GeForce GTX | GeForce GTX 980 Ti GeForce GTX 980 GeForce GTX 970 GeForce GTX 960 GeForce GTX 950 |
| 5.0 | GeForce GTX | GeForce GTX 750 Ti GeForce GTX |
Pour ma part j’ai le choix puisque j’ai un PC Gaming équipé d’une RTX 4070 Ti, un PC plus light équipé d’une GTX 1080 et enfin un MacBook Pro équipé d’un M4 avec 24 Go de ram. Personnellement, quand que je développe je préfère utiliser mon Mac, mais c’est un choix perso. À vous de faire avec votre meilleur matériel possible maintenant que vous connaissez les configurations conseillées pour Ollama !
Installation de Ollama
Pour commencer, il faut se rendre sur le site de Ollama.

Dans la section Download cliquez sur la version qui correspond à votre matériel. Pour ma part je prends MacOS.

Une fois l’exécutable sur votre machine, double-cliquez pour lancer l’installation ou glissez Ollama vers votre dossier Application si vous avez un Mac.

Ensuite, il suffit de lancer Ollama pour se retrouver devant l’interface de base :

Vous vous retrouvez devant le prompt de base pour utiliser une IA. Vous pouvez commencer à l’utiliser et à poser vos prompts pour tester le modèle proposé par défaut : llama.
Mais nous, on va aller un peu plus loin et utiliser le terminal.
Utilisation de Ollama en ligne de commande
Pour rappel sur Mac le terminal par défaut est dans Applications -> Utilitaires -> Terminal

Vous allez saisir votre première commande Ollama :
ollama --version
Cela va vous indiquer la version de Ollama et vous permettre de vérifier que l’installation est bien opérationnelle :

Je vais vous proposer à présent de télécharger un modèle précis de LLM : Deepseek-r1. Pourquoi lui ? Parce qu’il est très performant tout en s’exécutant sur les machines ayant le moins de ressources.
Pour faire cela rien de plus simple, tapez :
ollama pull deepseek-r1

Une fois le modèle sur votre PC, il suffit de le lancer avec la commande :
ollama run deepseek-r1

Vous êtes prêt à taper votre premier prompt ! Par exemple : « Quelle est la capitale du Paraguay »

Vous pouvez également avoir la liste des commandes disponibles en tapant :
/?
Pour sortir tapez :
/bye

Voilà, vous avez fait vos premiers pas avec Ollama et vous disposez désormais d’une IA locale.
En allant dans la section Models de ollama.com, vous allez voir que vous disposez de pas mal de modèles LLM à tester.
Vous avez compris pour télécharger un modèle qui vous intéresse :
ollama pull nom_du_model
Pour le lancer :
ollama run nom_du_model
Pour voir la liste des modèles installés sur votre machine :
ollama list
Enfin, pour supprimer un modèle qui ne vous convient pas :
ollama rm nom_du_model
Vous allez voir qu’un même modèle peut avoir plusieurs versions. Pour faire simple, plus le modèle a une taille en Go élevée, plus il va falloir de la puissance GPU pour le faire fonctionner correctement.
Pour ma part, j’utilise rarement des modèles au-dessus du 14b. Ça me suffit largement par rapport à mes usages.
Vous pouvez désormais vous amuser et tester tous les modèles LLM qui vous tentent. Et ça n’est qu’un début, je vais vous montrer dans de prochains tutos comment faire votre premier chat bot et une version light de Jarvis !
Promis, rien de compliqué.

