Retour au blog
AI Tools 18 min read 8 mai 2026

Audit GEO : mon site personnel à 74/100 et ma startup à 28/100

Un audit complet d'optimisation pour les moteurs génératifs (GEO) de neelshah18.com et dishuu.com — ce que les systèmes IA ont trouvé, ce qui était cassé, ce qui a été corrigé, et ce que l'écart entre une marque personnelle et une startup révèle sur la citabilité IA.

#GEO#SEO#Recherche IA#Schema Markup#llms.txt#E-E-A-T#Données structurées#Citabilité IA#Perplexity#ChatGPT

J’ai réalisé un audit d’optimisation pour les moteurs génératifs (GEO) sur deux sites que je possède : mon site de marque personnelle neelshah18.com et le site de l’entreprise dishuu.com. Les résultats sont radicalement différents — 74/100 contre 28/100 — et l’écart révèle quelque chose d’intéressant sur la façon dont les systèmes IA évaluent l’autorité, par rapport à la façon dont les humains le font.

Voici le compte rendu complet : ce que mesure le GEO, ce que chaque site a obtenu, ce qui était cassé, ce que j’ai corrigé, et ce qui reste à faire.


Qu’est-ce que le GEO et pourquoi est-ce important maintenant ?

Le SEO traditionnel optimise pour l’algorithme de classement de Google : backlinks, autorité de page, densité de mots-clés. L’optimisation pour les moteurs génératifs cible un comportement fondamentalement différent : être cité par les systèmes IA comme ChatGPT, Perplexity, Claude et Gemini.

Quand quelqu’un demande à Perplexity « qui construit des pipelines de données PySpark au Canada ? », la réponse ne provient pas d’une liste classée de liens bleus. Elle provient d’une synthèse de pages que le système IA considère comme faisant autorité, citables et suffisamment structurées pour en extraire de l’information. Si votre site n’est pas conçu pour cette extraction, vous êtes invisible — peu importe votre score SEO traditionnel.

Les chiffres qui illustrent ce changement :

IndicateurValeur
Croissance du trafic référencé par l’IA (annuel)+527 %
Taux de conversion vs. recherche organique4,4× plus élevé
Baisse prévue du trafic de recherche traditionnelle d’ici 202850 % (Gartner)

L’audit a été réalisé avec geo-seo-claude de Zubair Trabzada — un plugin de compétences open source pour Claude Code qui orchestre 13 sous-compétences réparties sur la citabilité IA, l’autorité de marque, le contenu E-E-A-T, l’infrastructure technique, les données structurées et l’optimisation des plateformes. Chaque catégorie est notée indépendamment, puis pondérée pour obtenir un score GEO composite.


Site 1 : neelshah18.com — 74/100

Répartition des scores

CatégorieScorePoids
Citabilité IA72/10025 %
Autorité de marque68/10020 %
Contenu E-E-A-T82/10020 %
GEO Technique88/10015 %
Schema & Données structurées62/10010 %
Optimisation des plateformes55/10010 %
Global74/100

Le site personnel bénéficie d’avantages structurels liés au fait d’être une plateforme de publication longue durée. 17 articles de blog d’une durée de lecture moyenne de 8 à 22 minutes, une architecture bilingue en anglais et en français, tous les robots d’exploration IA explicitement autorisés dans robots.txt, et un fichier llms.txt qui donne aux systèmes IA un index lisible par machine du contenu du site. Le score E-E-A-T de 82 reflète dix ans d’historique professionnel vérifiable, un master de l’Université Lakehead (financé par le CRSNG) et des citations académiques dépassant 89 sur Google Scholar.

Les faiblesses se concentraient essentiellement dans des lacunes de schema — des éléments présents mais incomplets.

Ce qui était cassé

Le schema BlogPosting manquait de propriétés clés pour la citabilité IA. Chaque article avait le type BlogPosting de base, mais il manquait :

  • inLanguage — critique pour un site bilingue ; les systèmes IA ont besoin de savoir quelle variante linguistique citer
  • wordCount — les systèmes IA utilisent cette valeur pour évaluer la profondeur du contenu ; estimé à partir du temps de lecture à 250 mots par minute
  • url comme propriété distincte de mainEntityOfPage
  • isPartOf reliant chaque article à l’entité Blog parente
  • about mappé à des entités Thing structurées plutôt qu’à des chaînes de texte simples
  • ImageObject avec width et height explicites au lieu d’une simple URL

Le schema FAQPage était absent sur les articles à structure FAQ. Le Guide complet de Claude Code et l’article geo-seo-claude contiennent tous deux des sections de questions-réponses — « Que fait X ? », « Comment installer Y ? » — mais n’avaient aucun balisage FAQPage. Le schema FAQ est l’un des types de schema avec le meilleur retour sur investissement pour la sélection de citations par l’IA, car il correspond directement à la façon dont l’IA génère des réponses.

llms.txt était obsolète. Le fichier n’avait pas été mis à jour depuis le 11 avril 2026 et manquait quatre articles récemment publiés : dishuu-zero-whitepaper, hf-mount-huggingface-filesystem, geo-seo-claude-guide et vibe-leaders-ai-world. Les robots d’exploration IA utilisant llms.txt comme index de découverte n’auraient pas trouvé ces articles.

Le schema Person manquait de références académiques. Le schema Person global avait jobTitle et worksFor mais aucun alumniOf (Université Lakehead, Gujarat Technology University) ni hasCredential (MSc, CRSNG). Ces propriétés permettent aux systèmes IA de construire un graphe d’entité autour d’un individu nommé et de vérifier son autorité.

Aucun sélecteur speakable. Google Discover et les IA vocales utilisent les sélecteurs CSS speakable pour identifier les paragraphes clés pour le rendu audio et l’extraction de citations. Les articles de longue durée (18 à 22 minutes) bénéficient considérablement de ces sélecteurs pointant vers les paragraphes d’introduction et de conclusion.

Aucune SearchAction sur la page d’accueil. Le schema WebSite existait mais ne comportait pas de potentialAction pour un Sitelinks Searchbox, qui aide Google AI Overviews à faire apparaître des liens de navigation directs.

La page de recherche n’avait pas de schema ScholarlyArticle. La page liste des articles publiés mais n’émettait aucune donnée structurée. L’ajout d’entrées ScholarlyArticle avec des liens citation renforce considérablement les signaux E-E-A-T pour l’autorité académique.

Ce qui a été corrigé lors de cette session d’audit

Tous les problèmes de priorité haute et moyenne sur neelshah18.com ont été résolus pendant l’audit :

  • Schema BlogPosting enrichi dans les templates en anglais et en français : inLanguage, wordCount, url, isPartOf, about comme entités Thing structurées, author.sameAs, publisher.sameAs, ImageObject avec dimensions
  • llms.txt mis à jour : 4 articles manquants ajoutés, date rafraîchie
  • SearchAction ajouté au schema WebSite de la page d’accueil EN/FR, soutenu par une nouvelle route /search/
  • alumniOf (Lakehead, Gujarat Technology University) et hasCredential (MSc, CRSNG) ajoutés au schema Person global dans Layout.astro
  • Schema ScholarlyArticle ajouté à la page de recherche pour chaque article listé
  • Sélecteurs CSS speakable ajoutés au schema des articles de blog
  • Schema FAQPage et sections FAQ visibles ajoutés au Guide complet de Claude Code et aux articles geo-seo-claude

Ce qui reste ouvert

Les lacunes restantes ne sont pas techniques — elles nécessitent un effort de distribution :

  • Absence de présence sur Reddit. r/dataengineering, r/PySpark, r/MachineLearning et r/ClaudeAI sont des sources de citations importantes pour les données d’entraînement des IA. Un seul post authentique de l’auteur dans chaque subreddit pertinent change le graphe d’entité.
  • Aucune chaîne YouTube. Même une présentation de 5 minutes sur emot ou un tutoriel PySpark crée une connexion d’entité que les systèmes IA reconnaissent.
  • Wikipedia n’a pas d’article sur emot. La bibliothèque a plus de 3 millions de téléchargements et des recherches publiées qui la soutiennent. Elle répond au seuil de notabilité de Wikipedia. Un article représenterait le signal d’autorité externe le plus fort pour la marque.
  • Pas de photos d’auteur sur les articles de blog. Un petit signal de confiance visuel, mais présent dans les recommandations d’audit.
  • Pas de blocs TL;DR sur les articles de longue durée. Les systèmes IA préfèrent un paragraphe dense et citable en haut de page. Un TL;DR de 3 phrases au début de chaque article majeur crée une cible d’extraction évidente.

Site 2 : dishuu.com — 28/100

Répartition des scores

CatégorieScorePoids
Citabilité IA20/10025 %
Autorité de marque18/10020 %
Contenu E-E-A-T22/10020 %
GEO Technique45/10015 %
Schema & Données structurées0/10010 %
Optimisation des plateformes15/10010 %
Global28/100

Le score de 28/100 est critique. Version honnête : dishuu.com a un produit solide et une proposition de valeur claire, mais est fonctionnellement invisible pour les systèmes IA.

Le score Schema est 0/100. Pas 20, pas 40 — zéro. Aucun balisage JSON-LD n’a été détecté sur aucune page. Ni la page d’accueil, ni la page produit Zero, ni la page de consulting. Les systèmes IA ne peuvent pas identifier Dishuu comme entité Organisation, Zero comme SoftwareApplication, ou les services de consulting comme un Service.

Les défaillances spécifiques

Zéro schema JSON-LD sur toute page. Chaque page est une occasion manquée. La page /zero/ décrit un produit avec une tarification explicite (0,99 $/mois personnel, 50 000 $+ entreprise), une pile de transport et un ensemble de fonctionnalités défini — tout cela invisible pour les systèmes IA sans schema SoftwareApplication + Offer. La page /consulting/ présente trois niveaux nommés (Buddy Starter, Buddy Build, Buddy Pro) avec une tarification explicite — invisible sans schema Service + Offer.

Pas de llms.txt. dishuu.com/llms.txt retourne une erreur 404. Les robots d’exploration IA n’ont aucun index lisible par machine de ce qu’est le site, ce qu’il fait ou quelles sont ses pages clés.

Aucune personne nommée nulle part sur le site. La page À propos décrit la mission de l’entreprise sans nommer un seul fondateur, ingénieur ou membre d’équipe. Les systèmes IA évaluent l’E-E-A-T en recoupant les personnes nommées avec des sources externes. Dishuu n’a aucune personne vérifiable à recouper.

Schema FAQPage absent sur les pages riches en FAQ. /zero/ et /consulting/ ont toutes deux des sections FAQ complètes. Aucune n’a de balisage FAQPage. C’est la correction avec le meilleur retour sur investissement sur le site — le contenu existe déjà.

Pas de blog ni de contenu d’auteur. Les systèmes IA citent du contenu. Dishuu n’a pas de blog, pas de guides, pas d’études de cas. La seule surface longue forme est la page zero-whitepaper/ (~1 000 mots) — qui n’a elle-même aucun schema, aucun lien depuis la page d’accueil et aucun balisage TechArticle. Chaque concurrent ayant un blog est par défaut plus citable.

Contenu mince par page. La plupart des pages font 300 à 800 mots. C’est en dessous du seuil de profondeur que les systèmes IA préfèrent pour la citation. Le positionnement produit est percutant, mais le contenu explicatif qui le soutient est minimal.

La marque n’a aucune présence externe vérifiable par les systèmes IA. Pas de mentions Wikipedia, pas de posts Reddit, pas de chaîne YouTube, pas de couverture presse visible, pas de dépôts GitHub liés depuis le site. La marque est nouvelle et la masse de citations dont les systèmes IA ont besoin ne s’est pas encore accumulée.

Les points positifs

Le GEO Technique a obtenu 45/100, ce qui reflète de vraies forces :

  • robots.txt autorise explicitement tous les principaux robots d’exploration IA : GPTBot, ClaudeBot, PerplexityBot, Google-Extended, OAI-SearchBot
  • Le sitemap existe avec 16 URL
  • Les pages semblent être rendues côté serveur — aucun contenu JavaScript uniquement détecté

Ce sont des exigences de base, mais de nombreux sites y échouent. Dishuu ne l’a pas fait.

Le livre blanc Zero est un véritable actif E-E-A-T. La phrase « La confiance est créée par la vérification humaine directe plutôt que par l’identité externalisée » est exactement le type de déclaration citable et positionnée que les systèmes IA mettent en avant. Elle est sous-exploitée car elle n’a aucun schema et aucun lien depuis la page d’accueil.

Le plan de correction sur 30 jours

Semaine 1 — Schema de base :

  • Schema Organization sur la page d’accueil avec des liens sameAs vers les réseaux sociaux
  • Schema WebSite + potentialAction SearchAction sur la page d’accueil
  • Schema FAQPage sur /zero/ et /consulting/ (le contenu existe déjà)
  • Schema SoftwareApplication + Offer sur /zero/
  • Schema Service + Offer sur /consulting/
  • BreadcrumbList sur toutes les pages

Semaine 2 — Contenu et llms.txt :

  • Créer dishuu.com/llms.txt — fichier de 20 lignes, gain immédiat en découvrabilité IA
  • Vérifier et ajouter des méta-descriptions à toutes les 16 pages
  • Ajouter un schema Person pour au moins un fondateur/membre d’équipe nommé avec lien LinkedIn
  • Ajouter un schema TechArticle à /zero-whitepaper/

Semaine 3 — Distribution sur les plateformes :

  • Soumettre Dishuu Zero à Product Hunt — génère des mentions Reddit et HN que les modèles IA citent
  • Créer une organisation GitHub avec au moins un dépôt lié
  • Publier un article sur le modèle de confidentialité Zero dans r/privacy ou r/degoogle
  • Publier un article de blog : « Pourquoi nous avons construit Zero sans serveurs »

Semaine 4 — Construction d’autorité :

  • Ajouter Dishuu sur Crunchbase et AngelList (les modèles IA les citent abondamment pour l’identification des entreprises)
  • Corriger les valeurs lastmod du sitemap — actuellement toutes fixées à la même date, ce qui signale un contenu périmé
  • Confirmer ou créer une page entreprise LinkedIn ; lier depuis le schema de la page d’accueil
  • Rédiger une étude de cas de consulting — même anonymisée, elle améliore considérablement l’E-E-A-T

La comparaison

Indicateurneelshah18.comdishuu.com
Score GEO74/10028/100
Schema JSON-LDPrésent (7 types)Absent
llms.txtPrésent (mis à jour)Manquant
Accès robots d’exploration IATous les robots autorisésTous les robots autorisés
Méta-descriptionsToutes les pagesNon confirmé
hreflangen-CA / fr-CAN/A
Schema FAQPagePage d’accueil + articles prioritairesAbsent sur les pages FAQ
Auteur / E-E-A-TFortAucune personne nommée
Profondeur du contenu17 articles longue forme16 pages, pas de blog
Présence sur les plateformesGitHub/Scholar fort, Reddit absentMinimale

Les avantages du site personnel proviennent presque entièrement de la publication de contenu longue forme et du balisage schema — non des backlinks ou des signaux SEO traditionnels. L’architecture bilingue est un avantage structurel qui double la surface indexable pour les systèmes IA sans nécessiter une stratégie de contenu supplémentaire.

Le déficit du site startup n’est pas un problème de produit. La communication est bonne, le positionnement est clair, l’infrastructure technique est correcte. L’écart est entièrement dans la façon dont le site communique avec les systèmes automatiques — aussi bien les robots d’exploration IA que les parseurs de données structurées. Aucune des corrections requises n’est un travail d’ingénierie difficile. Ce sont une semaine d’implémentation de schema ciblée et un calendrier éditorial qui produit un article de blog par semaine.


Ce que cet audit a changé dans ma réflexion

Avant cet audit, je supposais que mon site personnel était raisonnablement bien optimisé. Le score de 74/100 est correct — pas mauvais — mais les lacunes de schema qui ont émergé étaient réelles et corrigeables en une journée. Le balisage FAQPage sur les articles de type questions-réponses seul pourrait changer significativement la façon dont les systèmes IA citent ces articles pour répondre aux questions sur Claude Code ou le GEO.

Pour dishuu.com, l’audit a clarifié une priorité sur laquelle j’étais vague. Le travail de schema représente une semaine d’implémentation. Le blog est un engagement éditorial de deux mois. La distribution sur les plateformes — posts Reddit, soumission Product Hunt, article Wikipedia pour Zero — est une troisième piste qui se déroule en parallèle. Rien n’est bloqué. Tout est maintenant séquencé.

L’observation plus profonde : les systèmes IA évaluent les sites comme le ferait un évaluateur humain attentif avec un temps infini et aucun biais visuel. Ils regardent qui a écrit le contenu, si ces personnes peuvent être vérifiées, comment le contenu est structuré, quelle est la profondeur des explications, et si les métadonnées renforcent le contenu. Une belle page d’accueil qui ne répond pas à ces questions obtient 28/100. Un blog utilitaire avec des références vérifiables, un contenu technique profond et un schema complet approche 74/100 et continue de progresser.

Le GEO n’est pas un truc technique. C’est un engagement à être genuinement lisible par les systèmes qui remplacent la recherche traditionnelle pour une part croissante des requêtes qui génèrent du trafic réel.


L’audit a été réalisé le 5 mai 2026 en utilisant geo-seo-claude de Zubair Trabzada. Les corrections d’implémentation sur neelshah18.com ont été appliquées le 8 mai 2026.

Questions fréquentes

De quoi parle Audit GEO : mon site personnel à 74/100 et ma startup à 28/100 ?

Un audit complet d'optimisation pour les moteurs génératifs (GEO) de neelshah18.com et dishuu.com — ce que les systèmes IA ont trouvé, ce qui était cassé, ce qui a été corrigé, et ce que l'écart entre une marque personnelle et une startup révèle sur la citabilité IA.

À qui s’adresse cet article ?

Cet article s’adresse aux ingénieurs, responsables techniques et équipes data travaillant sur GEO, SEO, Recherche IA.

Comment utiliser cet article ?

Utilisez-le comme référence pratique pour les décisions AI Tools, les arbitrages d’architecture et les workflows de production.

Article complet

Lire la version anglaise integrale

La version anglaise contient tout le detail de l’analyse, y compris les explications techniques, les exemples et les points de comparaison.

Ouvrir l’article anglais
Autres articles

Parcourir les autres resumes et articles du blog.

Projets

Voir les outils, datasets et bibliotheques publies.

Contact

Discuter d’un projet de donnees, d’IA ou d’architecture.