Qu'est-ce qu'Ollama ?
Ollama est une plateforme open-source qui simplifie le processus d'exécution des grands modèles de langage (LLM) localement sur votre machine. Créé en 2023 par l'équipe Ollama, cet outil basé sur Go est rapidement devenu l'une des solutions les plus populaires pour le déploiement local d'IA, recueillant plus de 165 000 étoiles sur GitHub. Ollama résout le problème fondamental de rendre les modèles d'IA avancés accessibles sans dépendre des services cloud, donnant aux développeurs et aux organisations un contrôle total sur leur infrastructure d'IA.
La plateforme prend en charge une large gamme de modèles, y compris Gemma 3, Qwen, DeepSeek, GLM-5, MiniMax, et bien d'autres. Ce qui distingue Ollama, c'est son accent sur la simplicité — vous pouvez avoir un LLM prêt pour la production fonctionnant localement avec une seule commande. L'outil gère le téléchargement, l'optimisation et le service des modèles via une interface en ligne de commande et une API REST complète.
Commencer
L'installation d'Ollama est simple sur toutes les principales plateformes :
Installation sur macOS
curl -fsSL https://ollama.com/install.sh | shAlternativement, vous pouvez télécharger l'installateur manuellement depuis le site officiel.
Installation sur Windows
irm https://ollama.com/install.ps1 | iexInstallation sur Linux
curl -fsSL https://ollama.com/install.sh | shDéploiement Docker
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamaUne fois installé, vérifiez l'installation en exécutant :
ollama --versionUtilisation et exemples pratiques
Interaction de base avec le modèle
La façon la plus simple de commencer est d'exécuter un modèle directement :
ollama run gemma3Cette commande télécharge le modèle Gemma 3 (s'il n'est pas déjà présent) et démarre une session de chat interactive. Le modèle sera optimisé pour votre matériel automatiquement.
Intégration API REST
Pour l'intégration d'applications, Ollama fournit une API REST complète. Voici un exemple de complétion de chat de base :
curl http://localhost:11434/api/chat -d '{
"model": "gemma3",
"messages": [{
"role": "user",
"content": "Explain quantum computing in simple terms"
}],
"stream": false
}'Intégration Python
Ollama fournit des liaisons Python officielles pour une intégration transparente :
pip install ollamafrom ollama import chat
response = chat(model='gemma3', messages=[
{
'role': 'user',
'content': 'Write a Python function to calculate fibonacci numbers',
},
])
print(response.message.content)Intégration JavaScript/Node.js
npm install ollamaimport ollama from 'ollama';
const response = await ollama.chat({
model: 'gemma3',
messages: [{ role: 'user', content: 'Help me debug this JavaScript code' }],
});
console.log(response.message.content);Exemples d'intégration avancée
La dernière version d'Ollama (0.18.0) introduit des capacités d'intégration améliorées :
# Lancer l'intégration OpenClaw
ollama launch openclaw --model kimi-k2.5
# Exécuter des modèles hébergés dans le cloud
ollama run nemotron-3-super:cloud
# Lancer des assistants de codage
ollama launch claude




