Retour au blog
DevOps 12 min read 18 mars 2026

IA auto-hebergee sur Ubuntu : guide Ollama + OpenClaw

Guide complet en francais pour installer Ollama et OpenClaw sur Ubuntu, choisir un modele, connecter WhatsApp et corriger les erreurs les plus frequentes.

#Ollama#OpenClaw#Ubuntu#IA auto-hebergee#WhatsApp#LLM

Faire tourner un assistant IA local qui repond sur WhatsApp en utilisant des modeles heberges entierement sur sa propre machine semble complexe. En pratique, ce n’est pas si difficile, mais il existe assez d’angles morts pour rendre le premier setup penible si l’on n’anticipe pas les erreurs.

Ce guide reprend le setup complet sur Ubuntu avec une approche tres pratique.


Que sont ces outils ?

Ollama est un runtime pour executer des LLM localement. Il gere :

  • le telechargement des modeles
  • l’inference CPU ou GPU
  • une API locale sur http://localhost:11434

OpenClaw est un gateway multi-canaux qui connecte ce modele local a des interfaces comme WhatsApp, orchestre des agents et expose un tableau de controle local.


Prerequis

Il faut :

  • Ubuntu 22.04+
  • Node.js 20+
  • npm correctement configure
  • 8 Go de RAM minimum
  • pas de GPU obligatoire

Le setup reste donc relativement accessible sur une machine personnelle correcte.


Etape 1 : installer Ollama

Le chemin classique :

curl -fsSL https://ollama.com/install.sh | sh

Puis verification :

systemctl status ollama
ollama --version
curl http://localhost:11434/api/version

Ensuite, il faut telecharger un premier modele :

ollama pull qwen3:8b

Etape 2 : installer OpenClaw

npm install -g openclaw

Si npm pose un probleme de permissions, il faut configurer un prefixe global utilisateur.

Puis verification :

openclaw --version

Etape 3 : lancer l’onboarding

openclaw onboard

Le wizard couvre :

  • le mode gateway
  • le fournisseur de modele
  • le choix du modele
  • les canaux
  • l’installation du service

Le cas local classique consiste a pointer vers Ollama sur 127.0.0.1:11434.


Etape 4 : lier WhatsApp

Lors de l’onboarding ou ensuite via la commande de login de canal, un QR code apparait. Il faut alors utiliser :

WhatsApp -> Linked Devices -> Link a Device

Une fois le compte lie, le gateway peut repondre avec votre modele local.


Etape 5 : installer le gateway comme service

openclaw gateway install
systemctl --user enable openclaw-gateway.service
systemctl --user start openclaw-gateway.service

L’etat se verifie ensuite avec :

openclaw status

Les problemes que l’on rencontre souvent

1. Mauvais nom de service systemd

On cherche openclaw.service alors que l’unite utile est souvent openclaw-gateway.service.

2. Gateway “unreachable” apres mise a jour

Le service semble actif, mais l’outil ne repond plus correctement. Il faut alors verifier l’etat reel du gateway, les ports et parfois redemarrer proprement.

3. Fenetre de contexte trop petite

Certains modeles paraissent fonctionner mais deviennent vite limites pour les usages agents plus longs.

4. Modele sans support des tools

C’est un point critique. Certains modeles sont utilisables en chat, mais pas adaptes a des agents ayant besoin d’outils.

5. Mauvaises permissions sur les credentials

Une erreur de permissions sur les dossiers de config peut casser le fonctionnement de maniere peu lisible.

6. Petit modele sans sandboxing

Un setup local economique ne doit pas faire oublier les questions de securite.

7. Erreur de scope sur le gateway

Certains tokens ou permissions de canal peuvent bloquer l’integration.


Choisir le bon modele

Le choix du modele compte enormement. Il faut regarder :

  • support des tools
  • taille et cout machine
  • fenetre de contexte
  • qualite generale

Dans ce type de stack, un modele bien choisi est plus important qu’un simple chiffre de benchmark.


Utilisation de base

Le flux normal consiste a :

  • ouvrir le dashboard local
  • verifier le statut du gateway
  • ecrire sur WhatsApp
  • observer le comportement du modele local

C’est la simplicite de cette boucle qui rend le setup interessant une fois les premieres difficultes depassees.


Maintenance

La maintenance tourne autour de quatre sujets :

Ajouter un nouveau modele

Telecharger le modele puis l’enregistrer dans la configuration utile.

Mettre a jour OpenClaw

Verifier la compatibilite du gateway et des composants autour.

Mettre a jour Ollama

S’assurer que la version serveur reste stable avec les modeles utilises.

Verifier la sante du systeme

Le statut complet de la pile doit etre verifie regulierement.


Garder la stack raisonnablement securisee

Un setup local n’est pas automatiquement un setup sur. Il faut penser a :

  • la portee reseau du gateway
  • les permissions
  • l’acces aux fichiers
  • le choix du modele
  • l’isolement des composants

Plus l’agent touche a des canaux externes, plus cette discipline compte.


Resume

Ollama + OpenClaw sur Ubuntu permet de construire une pile IA locale tres interessante sans passer par des API cloud payantes. Le setup demande un peu de soin, surtout sur les points de service, permissions, modele et integration canal, mais une fois stabilise il devient une base tres pratique pour l’IA auto-hebergee.

Questions fréquentes

De quoi parle IA auto-hebergee sur Ubuntu : guide Ollama + OpenClaw ?

Guide complet en francais pour installer Ollama et OpenClaw sur Ubuntu, choisir un modele, connecter WhatsApp et corriger les erreurs les plus frequentes.

À qui s’adresse cet article ?

Cet article s’adresse aux ingénieurs, responsables techniques et équipes data travaillant sur Ollama, OpenClaw, Ubuntu.

Comment utiliser cet article ?

Utilisez-le comme référence pratique pour les décisions DevOps, les arbitrages d’architecture et les workflows de production.

Article complet

Lire la version anglaise integrale

La version anglaise contient tout le detail de l’analyse, y compris les explications techniques, les exemples et les points de comparaison.

Ouvrir l’article anglais
Autres articles

Parcourir les autres resumes et articles du blog.

Projets

Voir les outils, datasets et bibliotheques publies.

Contact

Discuter d’un projet de donnees, d’IA ou d’architecture.