
curl -fsSL https://ollama.com/install.sh | sh
Vérifier que Ollama est installé
ollama –version
Vérifier le service Ollama
sudo systemctl status ollama
sudo journalctl -u ollama -f
Télécharger et installer Llama 3.2 (3B paramètres)
ollama pull llama3.2
ollama pull mistral
Cette commande va :
Télécharger le modèle (environ 2 GB)
Configurer automatiquement l’environnement
Préparer le modèle pour son utilisation
# Lancer une session interactive avec Llama 3.2
ollama run llama3.2
Gestion des Modèles
# Lister tous les modèles installés
ollama list
# Télécharger un nouveau modèle
ollama pull [nom-du-modèle]
# Supprimer un modèle
ollama rm [nom-du-modèle]
# Voir les informations d’un modèle
ollama show [nom-du-modèle]
## A voir et à controler avant publication
Configuration avancée
Pour optimiser votre expérience Ollama, voici quelques configurations utiles. Pour cela, vous devrez non pas lancer le service mais utiliser la commande ollama serve.
Variables d’environnement
Terminal window
Changer le répertoire de stockage des modèles
export OLLAMA_MODELS= »/path/to/models »
Optimisation mémoire
Si vous avez des problèmes de mémoire :
Terminal window
Limiter l’utilisation mémoire
export OLLAMA_MAX_LOADED_MODELS=1
export OLLAMA_MAX_QUEUE=4
Pour la suite …
https://blog.stephane-robert.info/docs/developper/programmation/python/ollama/
bien appa
Laisser un commentaire