Beaucoup de pipelines RAG donnent des resultats decevants pour une raison simple : on traite les documents comme une masse de texte a decouper brutalement, puis on s’etonne que les reponses soient floues, hallucinantes ou peu fiables.
RAGFlow part d’une autre idee : la qualite du systeme depend d’abord de la qualite de la comprehension documentaire. Un tableau n’est pas un paragraphe. Une slide n’est pas un PDF lineaire. Un document scanne ne se traite pas comme un Markdown propre.
C’est cette attention au document understanding qui rend RAGFlow interessant.
Avant de commencer
RAGFlow tourne comme une stack Docker Compose, avec des besoins non negligeables :
- 4 coeurs CPU minimum
- 16 Go de RAM
- 50 Go de disque libre
- Docker recent
- Linux x86_64 recommande
Le parsing documentaire est lourd. Ce n’est pas un petit service a lancer legerement sur une machine tres modeste.
La vue d’ensemble
RAGFlow n’est pas un service unique. On a generalement :
- une API principale
- MySQL pour les metadonnees
- MinIO pour les fichiers
- Redis pour le cache et les taches
- Elasticsearch ou Infinity pour la recherche
L’utilisateur interagit surtout avec l’interface ou l’API, mais la valeur du produit vient de la coordination de toute cette pile.
Installation
Le chemin normal :
- cloner le depot
- entrer dans le dossier Docker
- lancer
docker compose up -d - attendre la fin du pull d’images
- ouvrir l’interface web
L’installation n’est pas conceptuellement difficile, mais elle est plus lourde qu’un simple outil local.
Premier knowledge base
Le premier vrai usage consiste a creer une base documentaire :
- connecter un LLM
- creer une knowledge base
- uploader des documents
- parser et inspecter les chunks
- demarrer un assistant de chat
Le point decisif est l’etape d’inspection. RAGFlow ne se contente pas de decouper les documents : il montre comment ils ont ete coupes et permet de corriger le resultat avant la phase de question-reponse.
Les 5 fonctionnalites les plus fortes
1. Chunking intelligent
RAGFlow essaie de respecter la structure des documents au lieu de les decouper avec des heuristiques trop simples.
2. Citations ancrees
Les reponses s’appuient sur des sources tracables, avec des references plus lisibles que dans beaucoup d’autres stacks RAG.
3. Strategies de recall multiples
Le systeme combine plusieurs approches de retrieval et de reranking, ce qui peut fortement ameliorer la qualite sur des corpus heterogenes.
4. Synchronisation de donnees
Le produit pousse aussi des usages plus “data pipeline” avec synchronisation depuis des sources externes.
5. Integration MCP et execution de code
Pour les workflows agents, cette ouverture est interessante car elle permet d’imaginer des usages au-dela d’un simple chatbot documentaire.
Connexion a des LLM externes
RAGFlow ne force pas un seul fournisseur. On peut le brancher a :
- OpenAI
- Anthropic
- Gemini
- Ollama
- d’autres services compatibles
Cette souplesse est importante, car le bon choix de modele depend du cout, de la latence, de la langue et du type de question.
Depannage
Quelques problemes classiques :
- l’UI ne charge pas
- les chunks parses semblent mauvais
- la connexion au LLM echoue
- il manque de la place disque au moment du pull
Comme souvent, les vrais points de douleur sont moins dans l’idee du produit que dans la stack autour :
- reseau
- ressources machine
- configuration LLM
- structure des documents
Ce qui est excellent, ce qui est bien, ce qui reste limite
Excellent
- le focus sur la qualite documentaire
- les citations et la tracabilite
- le chunking plus intelligent que la moyenne
Bien
- la richesse de la stack
- l’ouverture a plusieurs fournisseurs de modeles
- le potentiel sur des usages serieux de RAG
Limites
- stack plus lourde qu’un simple prototype
- exigences machines plus elevees
- demande un peu de rigueur dans la preparation des sources
Resume
RAGFlow merite l’attention si votre probleme principal est la qualite des reponses sur des documents reels. Il ne se contente pas de “faire du RAG” ; il traite la structure documentaire comme un probleme central. Pour des bases de connaissance serieuses, c’est une difference majeure.