Faire tourner un assistant IA local qui repond sur WhatsApp en utilisant des modeles heberges entierement sur sa propre machine semble complexe. En pratique, ce n’est pas si difficile, mais il existe assez d’angles morts pour rendre le premier setup penible si l’on n’anticipe pas les erreurs.
Ce guide reprend le setup complet sur Ubuntu avec une approche tres pratique.
Que sont ces outils ?
Ollama est un runtime pour executer des LLM localement. Il gere :
- le telechargement des modeles
- l’inference CPU ou GPU
- une API locale sur
http://localhost:11434
OpenClaw est un gateway multi-canaux qui connecte ce modele local a des interfaces comme WhatsApp, orchestre des agents et expose un tableau de controle local.
Prerequis
Il faut :
- Ubuntu 22.04+
- Node.js 20+
- npm correctement configure
- 8 Go de RAM minimum
- pas de GPU obligatoire
Le setup reste donc relativement accessible sur une machine personnelle correcte.
Etape 1 : installer Ollama
Le chemin classique :
curl -fsSL https://ollama.com/install.sh | sh
Puis verification :
systemctl status ollama
ollama --version
curl http://localhost:11434/api/version
Ensuite, il faut telecharger un premier modele :
ollama pull qwen3:8b
Etape 2 : installer OpenClaw
npm install -g openclaw
Si npm pose un probleme de permissions, il faut configurer un prefixe global utilisateur.
Puis verification :
openclaw --version
Etape 3 : lancer l’onboarding
openclaw onboard
Le wizard couvre :
- le mode gateway
- le fournisseur de modele
- le choix du modele
- les canaux
- l’installation du service
Le cas local classique consiste a pointer vers Ollama sur 127.0.0.1:11434.
Etape 4 : lier WhatsApp
Lors de l’onboarding ou ensuite via la commande de login de canal, un QR code apparait. Il faut alors utiliser :
WhatsApp -> Linked Devices -> Link a Device
Une fois le compte lie, le gateway peut repondre avec votre modele local.
Etape 5 : installer le gateway comme service
openclaw gateway install
systemctl --user enable openclaw-gateway.service
systemctl --user start openclaw-gateway.service
L’etat se verifie ensuite avec :
openclaw status
Les problemes que l’on rencontre souvent
1. Mauvais nom de service systemd
On cherche openclaw.service alors que l’unite utile est souvent openclaw-gateway.service.
2. Gateway “unreachable” apres mise a jour
Le service semble actif, mais l’outil ne repond plus correctement. Il faut alors verifier l’etat reel du gateway, les ports et parfois redemarrer proprement.
3. Fenetre de contexte trop petite
Certains modeles paraissent fonctionner mais deviennent vite limites pour les usages agents plus longs.
4. Modele sans support des tools
C’est un point critique. Certains modeles sont utilisables en chat, mais pas adaptes a des agents ayant besoin d’outils.
5. Mauvaises permissions sur les credentials
Une erreur de permissions sur les dossiers de config peut casser le fonctionnement de maniere peu lisible.
6. Petit modele sans sandboxing
Un setup local economique ne doit pas faire oublier les questions de securite.
7. Erreur de scope sur le gateway
Certains tokens ou permissions de canal peuvent bloquer l’integration.
Choisir le bon modele
Le choix du modele compte enormement. Il faut regarder :
- support des tools
- taille et cout machine
- fenetre de contexte
- qualite generale
Dans ce type de stack, un modele bien choisi est plus important qu’un simple chiffre de benchmark.
Utilisation de base
Le flux normal consiste a :
- ouvrir le dashboard local
- verifier le statut du gateway
- ecrire sur WhatsApp
- observer le comportement du modele local
C’est la simplicite de cette boucle qui rend le setup interessant une fois les premieres difficultes depassees.
Maintenance
La maintenance tourne autour de quatre sujets :
Ajouter un nouveau modele
Telecharger le modele puis l’enregistrer dans la configuration utile.
Mettre a jour OpenClaw
Verifier la compatibilite du gateway et des composants autour.
Mettre a jour Ollama
S’assurer que la version serveur reste stable avec les modeles utilises.
Verifier la sante du systeme
Le statut complet de la pile doit etre verifie regulierement.
Garder la stack raisonnablement securisee
Un setup local n’est pas automatiquement un setup sur. Il faut penser a :
- la portee reseau du gateway
- les permissions
- l’acces aux fichiers
- le choix du modele
- l’isolement des composants
Plus l’agent touche a des canaux externes, plus cette discipline compte.
Resume
Ollama + OpenClaw sur Ubuntu permet de construire une pile IA locale tres interessante sans passer par des API cloud payantes. Le setup demande un peu de soin, surtout sur les points de service, permissions, modele et integration canal, mais une fois stabilise il devient une base tres pratique pour l’IA auto-hebergee.