Installation Ollama

curl -fsSL https://ollama.com/install.sh | sh

Vérifier que Ollama est installé

ollama –version

Vérifier le service Ollama

sudo systemctl status ollama
sudo journalctl -u ollama -f

Télécharger et installer Llama 3.2 (3B paramètres)

ollama pull llama3.2
ollama pull mistral

Cette commande va :

Télécharger le modèle (environ 2 GB)
Configurer automatiquement l’environnement
Préparer le modèle pour son utilisation

# Lancer une session interactive avec Llama 3.2
ollama run llama3.2

Gestion des Modèles


# Lister tous les modèles installés
ollama list

# Télécharger un nouveau modèle
ollama pull [nom-du-modèle]

# Supprimer un modèle
ollama rm [nom-du-modèle]

# Voir les informations d’un modèle
ollama show [nom-du-modèle]

## A voir et à controler avant publication

Configuration avancée

Pour optimiser votre expérience Ollama, voici quelques configurations utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la commande ollama serve.
Variables d’environnement
Terminal window

Changer le répertoire de stockage des modèles

export OLLAMA_MODELS= »/path/to/models »

Optimisation mémoire

Si vous avez des problèmes de mémoire :
Terminal window

Limiter l’utilisation mémoire

export OLLAMA_MAX_LOADED_MODELS=1
export OLLAMA_MAX_QUEUE=4

Pour la suite …
https://blog.stephane-robert.info/docs/developper/programmation/python/ollama/

bien appa



Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *