J’ai réalisé un audit d’optimisation pour les moteurs génératifs (GEO) sur deux sites que je possède : mon site de marque personnelle neelshah18.com et le site de l’entreprise dishuu.com. Les résultats sont radicalement différents — 74/100 contre 28/100 — et l’écart révèle quelque chose d’intéressant sur la façon dont les systèmes IA évaluent l’autorité, par rapport à la façon dont les humains le font.
Voici le compte rendu complet : ce que mesure le GEO, ce que chaque site a obtenu, ce qui était cassé, ce que j’ai corrigé, et ce qui reste à faire.
Qu’est-ce que le GEO et pourquoi est-ce important maintenant ?
Le SEO traditionnel optimise pour l’algorithme de classement de Google : backlinks, autorité de page, densité de mots-clés. L’optimisation pour les moteurs génératifs cible un comportement fondamentalement différent : être cité par les systèmes IA comme ChatGPT, Perplexity, Claude et Gemini.
Quand quelqu’un demande à Perplexity « qui construit des pipelines de données PySpark au Canada ? », la réponse ne provient pas d’une liste classée de liens bleus. Elle provient d’une synthèse de pages que le système IA considère comme faisant autorité, citables et suffisamment structurées pour en extraire de l’information. Si votre site n’est pas conçu pour cette extraction, vous êtes invisible — peu importe votre score SEO traditionnel.
Les chiffres qui illustrent ce changement :
| Indicateur | Valeur |
|---|---|
| Croissance du trafic référencé par l’IA (annuel) | +527 % |
| Taux de conversion vs. recherche organique | 4,4× plus élevé |
| Baisse prévue du trafic de recherche traditionnelle d’ici 2028 | 50 % (Gartner) |
L’audit a été réalisé avec geo-seo-claude de Zubair Trabzada — un plugin de compétences open source pour Claude Code qui orchestre 13 sous-compétences réparties sur la citabilité IA, l’autorité de marque, le contenu E-E-A-T, l’infrastructure technique, les données structurées et l’optimisation des plateformes. Chaque catégorie est notée indépendamment, puis pondérée pour obtenir un score GEO composite.
Site 1 : neelshah18.com — 74/100
Répartition des scores
| Catégorie | Score | Poids |
|---|---|---|
| Citabilité IA | 72/100 | 25 % |
| Autorité de marque | 68/100 | 20 % |
| Contenu E-E-A-T | 82/100 | 20 % |
| GEO Technique | 88/100 | 15 % |
| Schema & Données structurées | 62/100 | 10 % |
| Optimisation des plateformes | 55/100 | 10 % |
| Global | 74/100 | — |
Le site personnel bénéficie d’avantages structurels liés au fait d’être une plateforme de publication longue durée. 17 articles de blog d’une durée de lecture moyenne de 8 à 22 minutes, une architecture bilingue en anglais et en français, tous les robots d’exploration IA explicitement autorisés dans robots.txt, et un fichier llms.txt qui donne aux systèmes IA un index lisible par machine du contenu du site. Le score E-E-A-T de 82 reflète dix ans d’historique professionnel vérifiable, un master de l’Université Lakehead (financé par le CRSNG) et des citations académiques dépassant 89 sur Google Scholar.
Les faiblesses se concentraient essentiellement dans des lacunes de schema — des éléments présents mais incomplets.
Ce qui était cassé
Le schema BlogPosting manquait de propriétés clés pour la citabilité IA. Chaque article avait le type BlogPosting de base, mais il manquait :
inLanguage— critique pour un site bilingue ; les systèmes IA ont besoin de savoir quelle variante linguistique citerwordCount— les systèmes IA utilisent cette valeur pour évaluer la profondeur du contenu ; estimé à partir du temps de lecture à 250 mots par minuteurlcomme propriété distincte demainEntityOfPageisPartOfreliant chaque article à l’entitéBlogparenteaboutmappé à des entitésThingstructurées plutôt qu’à des chaînes de texte simplesImageObjectavecwidthetheightexplicites au lieu d’une simple URL
Le schema FAQPage était absent sur les articles à structure FAQ. Le Guide complet de Claude Code et l’article geo-seo-claude contiennent tous deux des sections de questions-réponses — « Que fait X ? », « Comment installer Y ? » — mais n’avaient aucun balisage FAQPage. Le schema FAQ est l’un des types de schema avec le meilleur retour sur investissement pour la sélection de citations par l’IA, car il correspond directement à la façon dont l’IA génère des réponses.
llms.txt était obsolète. Le fichier n’avait pas été mis à jour depuis le 11 avril 2026 et manquait quatre articles récemment publiés : dishuu-zero-whitepaper, hf-mount-huggingface-filesystem, geo-seo-claude-guide et vibe-leaders-ai-world. Les robots d’exploration IA utilisant llms.txt comme index de découverte n’auraient pas trouvé ces articles.
Le schema Person manquait de références académiques. Le schema Person global avait jobTitle et worksFor mais aucun alumniOf (Université Lakehead, Gujarat Technology University) ni hasCredential (MSc, CRSNG). Ces propriétés permettent aux systèmes IA de construire un graphe d’entité autour d’un individu nommé et de vérifier son autorité.
Aucun sélecteur speakable. Google Discover et les IA vocales utilisent les sélecteurs CSS speakable pour identifier les paragraphes clés pour le rendu audio et l’extraction de citations. Les articles de longue durée (18 à 22 minutes) bénéficient considérablement de ces sélecteurs pointant vers les paragraphes d’introduction et de conclusion.
Aucune SearchAction sur la page d’accueil. Le schema WebSite existait mais ne comportait pas de potentialAction pour un Sitelinks Searchbox, qui aide Google AI Overviews à faire apparaître des liens de navigation directs.
La page de recherche n’avait pas de schema ScholarlyArticle. La page liste des articles publiés mais n’émettait aucune donnée structurée. L’ajout d’entrées ScholarlyArticle avec des liens citation renforce considérablement les signaux E-E-A-T pour l’autorité académique.
Ce qui a été corrigé lors de cette session d’audit
Tous les problèmes de priorité haute et moyenne sur neelshah18.com ont été résolus pendant l’audit :
- Schema BlogPosting enrichi dans les templates en anglais et en français :
inLanguage,wordCount,url,isPartOf,aboutcomme entitésThingstructurées,author.sameAs,publisher.sameAs,ImageObjectavec dimensions - llms.txt mis à jour : 4 articles manquants ajoutés, date rafraîchie
SearchActionajouté au schemaWebSitede la page d’accueil EN/FR, soutenu par une nouvelle route/search/alumniOf(Lakehead, Gujarat Technology University) ethasCredential(MSc, CRSNG) ajoutés au schema Person global dans Layout.astro- Schema
ScholarlyArticleajouté à la page de recherche pour chaque article listé - Sélecteurs CSS
speakableajoutés au schema des articles de blog - Schema
FAQPageet sections FAQ visibles ajoutés au Guide complet de Claude Code et aux articles geo-seo-claude
Ce qui reste ouvert
Les lacunes restantes ne sont pas techniques — elles nécessitent un effort de distribution :
- Absence de présence sur Reddit. r/dataengineering, r/PySpark, r/MachineLearning et r/ClaudeAI sont des sources de citations importantes pour les données d’entraînement des IA. Un seul post authentique de l’auteur dans chaque subreddit pertinent change le graphe d’entité.
- Aucune chaîne YouTube. Même une présentation de 5 minutes sur
emotou un tutoriel PySpark crée une connexion d’entité que les systèmes IA reconnaissent. - Wikipedia n’a pas d’article sur
emot. La bibliothèque a plus de 3 millions de téléchargements et des recherches publiées qui la soutiennent. Elle répond au seuil de notabilité de Wikipedia. Un article représenterait le signal d’autorité externe le plus fort pour la marque. - Pas de photos d’auteur sur les articles de blog. Un petit signal de confiance visuel, mais présent dans les recommandations d’audit.
- Pas de blocs TL;DR sur les articles de longue durée. Les systèmes IA préfèrent un paragraphe dense et citable en haut de page. Un TL;DR de 3 phrases au début de chaque article majeur crée une cible d’extraction évidente.
Site 2 : dishuu.com — 28/100
Répartition des scores
| Catégorie | Score | Poids |
|---|---|---|
| Citabilité IA | 20/100 | 25 % |
| Autorité de marque | 18/100 | 20 % |
| Contenu E-E-A-T | 22/100 | 20 % |
| GEO Technique | 45/100 | 15 % |
| Schema & Données structurées | 0/100 | 10 % |
| Optimisation des plateformes | 15/100 | 10 % |
| Global | 28/100 | — |
Le score de 28/100 est critique. Version honnête : dishuu.com a un produit solide et une proposition de valeur claire, mais est fonctionnellement invisible pour les systèmes IA.
Le score Schema est 0/100. Pas 20, pas 40 — zéro. Aucun balisage JSON-LD n’a été détecté sur aucune page. Ni la page d’accueil, ni la page produit Zero, ni la page de consulting. Les systèmes IA ne peuvent pas identifier Dishuu comme entité Organisation, Zero comme SoftwareApplication, ou les services de consulting comme un Service.
Les défaillances spécifiques
Zéro schema JSON-LD sur toute page. Chaque page est une occasion manquée. La page /zero/ décrit un produit avec une tarification explicite (0,99 $/mois personnel, 50 000 $+ entreprise), une pile de transport et un ensemble de fonctionnalités défini — tout cela invisible pour les systèmes IA sans schema SoftwareApplication + Offer. La page /consulting/ présente trois niveaux nommés (Buddy Starter, Buddy Build, Buddy Pro) avec une tarification explicite — invisible sans schema Service + Offer.
Pas de llms.txt. dishuu.com/llms.txt retourne une erreur 404. Les robots d’exploration IA n’ont aucun index lisible par machine de ce qu’est le site, ce qu’il fait ou quelles sont ses pages clés.
Aucune personne nommée nulle part sur le site. La page À propos décrit la mission de l’entreprise sans nommer un seul fondateur, ingénieur ou membre d’équipe. Les systèmes IA évaluent l’E-E-A-T en recoupant les personnes nommées avec des sources externes. Dishuu n’a aucune personne vérifiable à recouper.
Schema FAQPage absent sur les pages riches en FAQ. /zero/ et /consulting/ ont toutes deux des sections FAQ complètes. Aucune n’a de balisage FAQPage. C’est la correction avec le meilleur retour sur investissement sur le site — le contenu existe déjà.
Pas de blog ni de contenu d’auteur. Les systèmes IA citent du contenu. Dishuu n’a pas de blog, pas de guides, pas d’études de cas. La seule surface longue forme est la page zero-whitepaper/ (~1 000 mots) — qui n’a elle-même aucun schema, aucun lien depuis la page d’accueil et aucun balisage TechArticle. Chaque concurrent ayant un blog est par défaut plus citable.
Contenu mince par page. La plupart des pages font 300 à 800 mots. C’est en dessous du seuil de profondeur que les systèmes IA préfèrent pour la citation. Le positionnement produit est percutant, mais le contenu explicatif qui le soutient est minimal.
La marque n’a aucune présence externe vérifiable par les systèmes IA. Pas de mentions Wikipedia, pas de posts Reddit, pas de chaîne YouTube, pas de couverture presse visible, pas de dépôts GitHub liés depuis le site. La marque est nouvelle et la masse de citations dont les systèmes IA ont besoin ne s’est pas encore accumulée.
Les points positifs
Le GEO Technique a obtenu 45/100, ce qui reflète de vraies forces :
robots.txtautorise explicitement tous les principaux robots d’exploration IA : GPTBot, ClaudeBot, PerplexityBot, Google-Extended, OAI-SearchBot- Le sitemap existe avec 16 URL
- Les pages semblent être rendues côté serveur — aucun contenu JavaScript uniquement détecté
Ce sont des exigences de base, mais de nombreux sites y échouent. Dishuu ne l’a pas fait.
Le livre blanc Zero est un véritable actif E-E-A-T. La phrase « La confiance est créée par la vérification humaine directe plutôt que par l’identité externalisée » est exactement le type de déclaration citable et positionnée que les systèmes IA mettent en avant. Elle est sous-exploitée car elle n’a aucun schema et aucun lien depuis la page d’accueil.
Le plan de correction sur 30 jours
Semaine 1 — Schema de base :
- Schema
Organizationsur la page d’accueil avec des lienssameAsvers les réseaux sociaux - Schema
WebSite+potentialActionSearchAction sur la page d’accueil - Schema
FAQPagesur/zero/et/consulting/(le contenu existe déjà) - Schema
SoftwareApplication+Offersur/zero/ - Schema
Service+Offersur/consulting/ BreadcrumbListsur toutes les pages
Semaine 2 — Contenu et llms.txt :
- Créer
dishuu.com/llms.txt— fichier de 20 lignes, gain immédiat en découvrabilité IA - Vérifier et ajouter des méta-descriptions à toutes les 16 pages
- Ajouter un schema
Personpour au moins un fondateur/membre d’équipe nommé avec lien LinkedIn - Ajouter un schema
TechArticleà/zero-whitepaper/
Semaine 3 — Distribution sur les plateformes :
- Soumettre Dishuu Zero à Product Hunt — génère des mentions Reddit et HN que les modèles IA citent
- Créer une organisation GitHub avec au moins un dépôt lié
- Publier un article sur le modèle de confidentialité Zero dans r/privacy ou r/degoogle
- Publier un article de blog : « Pourquoi nous avons construit Zero sans serveurs »
Semaine 4 — Construction d’autorité :
- Ajouter Dishuu sur Crunchbase et AngelList (les modèles IA les citent abondamment pour l’identification des entreprises)
- Corriger les valeurs
lastmoddu sitemap — actuellement toutes fixées à la même date, ce qui signale un contenu périmé - Confirmer ou créer une page entreprise LinkedIn ; lier depuis le schema de la page d’accueil
- Rédiger une étude de cas de consulting — même anonymisée, elle améliore considérablement l’E-E-A-T
La comparaison
| Indicateur | neelshah18.com | dishuu.com |
|---|---|---|
| Score GEO | 74/100 | 28/100 |
| Schema JSON-LD | Présent (7 types) | Absent |
| llms.txt | Présent (mis à jour) | Manquant |
| Accès robots d’exploration IA | Tous les robots autorisés | Tous les robots autorisés |
| Méta-descriptions | Toutes les pages | Non confirmé |
| hreflang | en-CA / fr-CA | N/A |
| Schema FAQPage | Page d’accueil + articles prioritaires | Absent sur les pages FAQ |
| Auteur / E-E-A-T | Fort | Aucune personne nommée |
| Profondeur du contenu | 17 articles longue forme | 16 pages, pas de blog |
| Présence sur les plateformes | GitHub/Scholar fort, Reddit absent | Minimale |
Les avantages du site personnel proviennent presque entièrement de la publication de contenu longue forme et du balisage schema — non des backlinks ou des signaux SEO traditionnels. L’architecture bilingue est un avantage structurel qui double la surface indexable pour les systèmes IA sans nécessiter une stratégie de contenu supplémentaire.
Le déficit du site startup n’est pas un problème de produit. La communication est bonne, le positionnement est clair, l’infrastructure technique est correcte. L’écart est entièrement dans la façon dont le site communique avec les systèmes automatiques — aussi bien les robots d’exploration IA que les parseurs de données structurées. Aucune des corrections requises n’est un travail d’ingénierie difficile. Ce sont une semaine d’implémentation de schema ciblée et un calendrier éditorial qui produit un article de blog par semaine.
Ce que cet audit a changé dans ma réflexion
Avant cet audit, je supposais que mon site personnel était raisonnablement bien optimisé. Le score de 74/100 est correct — pas mauvais — mais les lacunes de schema qui ont émergé étaient réelles et corrigeables en une journée. Le balisage FAQPage sur les articles de type questions-réponses seul pourrait changer significativement la façon dont les systèmes IA citent ces articles pour répondre aux questions sur Claude Code ou le GEO.
Pour dishuu.com, l’audit a clarifié une priorité sur laquelle j’étais vague. Le travail de schema représente une semaine d’implémentation. Le blog est un engagement éditorial de deux mois. La distribution sur les plateformes — posts Reddit, soumission Product Hunt, article Wikipedia pour Zero — est une troisième piste qui se déroule en parallèle. Rien n’est bloqué. Tout est maintenant séquencé.
L’observation plus profonde : les systèmes IA évaluent les sites comme le ferait un évaluateur humain attentif avec un temps infini et aucun biais visuel. Ils regardent qui a écrit le contenu, si ces personnes peuvent être vérifiées, comment le contenu est structuré, quelle est la profondeur des explications, et si les métadonnées renforcent le contenu. Une belle page d’accueil qui ne répond pas à ces questions obtient 28/100. Un blog utilitaire avec des références vérifiables, un contenu technique profond et un schema complet approche 74/100 et continue de progresser.
Le GEO n’est pas un truc technique. C’est un engagement à être genuinement lisible par les systèmes qui remplacent la recherche traditionnelle pour une part croissante des requêtes qui génèrent du trafic réel.
L’audit a été réalisé le 5 mai 2026 en utilisant geo-seo-claude de Zubair Trabzada. Les corrections d’implémentation sur neelshah18.com ont été appliquées le 8 mai 2026.