BlogVisibilite IA & AEO3 mois d'optimisation IA pour zéro citation : autopsie d'un échec (et comment le corriger)
Retour au blog
Visibilite IA & AEO

3 mois d'optimisation IA pour zéro citation : autopsie d'un échec (et comment le corriger)

Un client a passé 3 mois à optimiser son site pour les LLM sans obtenir une seule citation. On a diagnostiqué pourquoi, et les erreurs qu'on a trouvées sont plus courantes qu'on ne le pense.

AS
Alan Schouleur
COO & CTO
22 mars 2026
9 min de lecture
6 vues
3 mois d'optimisation IA pour zéro citation : autopsie d'un échec (et comment le corriger)

Le brief de départ

Éditeur SaaS B2B à Bruxelles, secteur de la gestion de flotte véhicules. 40 employés, site bilingue FR/NL, blog actif avec 60 articles publiés en 2025. Leur responsable marketing avait lu tout ce qu'il pouvait sur la visibilité IA et décidé de s'y mettre sérieusement en octobre 2025.

Trois mois plus tard, en janvier 2026, il nous a contactés. "On a tout fait. FAQ sur chaque page, schema markup partout, un fichier llms.txt, des articles optimisés pour les questions. Résultat : zéro citation dans ChatGPT, zéro dans Perplexity, zéro dans les AI Overviews de Google. Qu'est-ce qu'on fait de travers ?"

Ce qu'on a trouvé en 48 heures d'audit

On a passé leur site au crible. Techniquement, ils avaient fait du bon travail. Le schema FAQ était valide, le llms.txt existait, les articles avaient des headers en format question. Sur le papier, tout cochait les bonnes cases.

Sauf que les cases ne suffisent pas. On a identifié cinq erreurs, et chacune suffisait à elle seule à expliquer l'absence de citations.

Erreur 1 : du contenu générique déguisé en contenu expert. Leurs articles répondaient aux bonnes questions, mais avec des réponses qu'on trouve sur les 50 premiers résultats Google. "La gestion de flotte permet de réduire les coûts et d'améliorer l'efficacité opérationnelle." Merci, mais les LLM ont déjà lu ça 10 000 fois. Ils ne citent pas les doublons -- ils citent les sources qui apportent quelque chose de neuf.

Quand on a demandé au client s'il avait des données internes (coûts moyens par véhicule, taux de panne par marque, temps d'immobilisation moyen en Belgique), il en avait des tonnes. Mais rien de tout ça n'était dans les articles. L'information propriétaire restait dans les rapports internes, et le blog publiait du contenu générique.

Erreur 2 : optimiser pour un seul LLM. Ils avaient calé toute leur stratégie sur ChatGPT. Or ChatGPT favorise les contenus encyclopédiques et les sources à forte autorité de domaine. Pour un SaaS B2B de niche, c'est le LLM le plus difficile à conquérir. Perplexity, qui valorise la fraîcheur et la spécificité, aurait été une cible bien plus atteignable en premier.

Selon le rapport d'Averi.ai, seulement 11% des domaines sont cités à la fois par ChatGPT et Perplexity. Chaque plateforme a ses préférences. Ignorer cette réalité, c'est jouer à la loterie avec un seul billet.

Erreur 3 : aucune présence sur les plateformes communautaires. Pas de Reddit. Pas de Quora. Pas de forums spécialisés fleet management. Leur contenu existait uniquement sur leur propre domaine. Or les LLM font du cross-referencing. Quand votre marque apparaît dans une discussion Reddit, un article de blog, et une fiche produit, les LLM vous considèrent comme une source plus fiable que si vous n'existez que sur votre propre site.

Erreur 4 : des auteurs fantômes. Tous les articles étaient signés "L'équipe [nom de la marque]". Pas d'auteur identifié, pas de schema Author, pas de lien vers un profil LinkedIn. Pour les LLM qui évaluent l'E-E-A-T de manière algorithmique, un article sans auteur vérifiable perd automatiquement en crédibilité face à un article signé par un expert identifiable.

Erreur 5 : le llms.txt était mal configuré. Le fichier existait mais contenait uniquement la page d'accueil et trois pages produit. Aucun des 60 articles de blog n'y figurait. C'est comme avoir un sitemap.xml qui ne référence pas vos pages. Le fichier technique est là, mais il ne fait pas son travail.

Ce qu'on a corrigé (et dans quel ordre)

On a priorisé les corrections par impact et rapidité d'exécution.

Semaine 1-2 : Réécriture de 10 articles clés en y injectant les données propriétaires du client. Temps moyen d'immobilisation en Belgique, coût réel au kilomètre par type de véhicule, comparatif TCO basé sur leur base de 3 000 véhicules gérés. Du contenu que personne d'autre ne pouvait publier.

Semaine 3 : Attribution d'auteurs réels (le CTO pour les articles techniques, le directeur commercial pour les articles stratégiques) avec schema Author complet et liens LinkedIn. Mise à jour du llms.txt pour inclure les 60 articles du blog, classés par thématique.

Semaine 4-6 : Lancement d'une présence Reddit sur r/fleetmanagement et r/logistics, avec le CTO qui répondait à 3-4 questions par semaine. En parallèle, publication de deux retours d'expérience détaillés sur des forums européens de gestion de flotte.

Semaine 7-8 : Création de contenu ciblé Perplexity (articles factuels, bien sourcés, réponses directes en ouverture) et de contenu ciblé AI Overviews (pages fortement structurées avec des réponses de 40-60 mots en tête de section).

Les résultats après 8 semaines

Première citation Perplexity : semaine 4, sur la requête "coût gestion flotte Belgique". C'était l'article avec les données TCO propriétaires.

À la semaine 8, le bilan : 12 citations Perplexity sur 30 requêtes suivies. 3 apparitions dans les AI Overviews de Google. 1 mention ChatGPT (sur une requête de niche). Le share of voice IA était passé de 0% à 18% face à leurs deux concurrents principaux.

Le trafic referral depuis les LLM représentait 4% du trafic total, avec un taux de conversion 3 fois supérieur à l'organique classique. Pas un raz-de-marée, mais un canal qui démarre et qui croît chaque semaine.

Ce qu'on retient de ce cas

Cocher les cases techniques ne suffit pas. Le schema markup, le llms.txt, les FAQ -- ce sont des prérequis, pas des différenciateurs. Ce qui fait la différence, c'est le contenu lui-même : est-il unique ? Apporte-t-il des données qu'on ne trouve nulle part ailleurs ? Est-il signé par quelqu'un de crédible ?

Si vous êtes dans une situation similaire -- vous avez investi dans l'optimisation IA sans voir de résultats -- la question à vous poser n'est pas "est-ce que ma technique est bonne ?" mais "est-ce que mon contenu apporte quelque chose que les LLM ne peuvent pas trouver ailleurs ?"

Si la réponse est non, aucune optimisation technique ne compensera. Si la réponse est oui mais que vous n'êtes toujours pas cité, c'est un problème de distribution et de visibilité. Les LLM ne peuvent pas citer ce qu'ils n'ont pas indexé. Pensez Reddit, pensez forums, pensez présence multi-plateformes.

On fait ce diagnostic pour nos clients B2B. 48 heures, pas d'engagement.

Partager :
AS
Alan Schouleur
COO & CTO

Co-fondateur et COO d'AISOS. Spécialiste technique SEO et visibilité IA, il développe les outils et méthodologies d'optimisation pour les moteurs de réponse.