Aller au contenu principal
Urgence critique Robots.txt

robots.txt et crawlers IA : ne bloquez pas vos ventes

Mis à jour le Mis à jour récemment
#robots-txt#crawlers#gptbot#perplexitybot
Share
Cet article inclut un quiz, testez vos connaissances en fin de lecture ! Aller au quiz

Pourquoi le robots.txt est critique

La configuration de votre fichier robots.txt à un impact direct sur l’accessibilité de votre store aux crawlers IA. Un robots.txt mal configuré peut rendre votre store totalement invisible pour les agents IA.

Pourquoi c’est important pour l’IA

Le fichier robots.txt est la première chose qu’un crawler visite avant d’explorer votre site. S’il contient une règle de blocage, le crawler respectueux (comme GPTBot ou ClaudeBot) s’arrête immédiatement. Votre store n’est jamais lu, jamais indexé, jamais recommandé.

C’est le point de contact numéro 1 entre votre store et l’IA. Et paradoxalement, c’est souvent le plus négligé.

Les crawlers IA à connaître

CrawlerOpérateurUsage
GPTBotOpenAIEntraînement ChatGPT et connaissance IA générale
OAI-SearchBotOpenAIRecherche et citations ChatGPT Shopping (sans collecte de données d’entraînement)
ChatGPT-UserOpenAIChatGPT avec browsing en temps réel
PerplexityBotPerplexityPerplexity Search & Shopping
ClaudeBotAnthropicClaude avec browsing (trafic doublé Q3 2025 - Q1 2026, SE Ranking, 2026)
Google-ExtendedGoogleGemini, AI Overview
AmazonbotAmazonAlexa, Amazon Search
BytespiderByteDanceFonctionnalités IA TikTok

Pourquoi OAI-SearchBot est essentiel : Contrairement à GPTBot (utilisé pour l’entraînement), OAI-SearchBot est le crawler temps-réel d’OpenAI qui alimente les citations et recommandations de ChatGPT Shopping. L’autoriser garantit que vos fiches produit peuvent être citées directement dans les résultats ChatGPT Shopping. OpenAI a mis à jour sa documentation des crawlers en décembre 2025 pour clarifier les rôles distincts de chaque bot (source : OpenAI Developer Docs, décembre 2025).

Ce qu’il faut vérifier

Arbre de décision robots.txt : le crawler IA arrive, vérifie si un Disallow global bloque tout (site invisible), puis si un blocage spécifique le cible (partiellement bloqué), sinon le site est accessible et indexé
Figure 1 - Comment un crawler IA décide d'indexer votre store selon le robots.txt

Votre robots.txt peut contenir différents types de blocages :

  • Blocage global : Disallow: / sous User-agent: * → tout est bloqué pour tous les crawlers
  • Blocages spécifiques : User-agent: GPTBot + Disallow: / → ce crawler est ciblé et bloqué
  • Blocages partiels : Disallow: /policies/ → seules les politiques sont bloquées (moins grave mais impactant)

Si un crawler n’est pas mentionné spécifiquement, les règles sous User-agent: * s’appliquent.

Verity Score analyse automatiquement votre robots.txt et vous alerte si des crawlers IA sont bloqués.

Cas Shopify par défaut

Le robots.txt par défaut de Shopify contient :

User-agent: *
Disallow: /admin
Disallow: /cart
Disallow: /orders
Disallow: /checkouts/
Disallow: /*/checkouts
Disallow: /carts
Disallow: /account

Ces règles sont correctes : elles bloquent uniquement les pages d’administration et de checkout. Vos fiches produit, collections et pages restent accessibles.

Attention : certaines apps Shopify ou configurations personnalisées ajoutent des règles supplémentaires qui peuvent bloquer les crawlers IA. Vérifiez régulièrement.

Les erreurs les plus courantes

Erreur 1 : Disallow global

User-agent: *
Disallow: /

Cela bloque tout votre site pour tous les crawlers. C’est la pire configuration possible.

Erreur 2 : Blocage spécifique des bots IA

User-agent: GPTBot
Disallow: /

User-agent: PerplexityBot
Disallow: /

Certains guides SEO recommandent de bloquer les crawlers IA pour “protéger le contenu”. C’est contre-productif si vous voulez être recommandé par ces systèmes.

Erreur 3 : Confusion Disallow: / vs Disallow: /policies/

Disallow: / bloque TOUT le site. Disallow: /policies/ bloque uniquement le répertoire /policies/. La différence est un seul caractère mais l’impact est total.

Comment corriger sur Shopify

Vérifier le robots.txt actuel

Allez sur https://votre-store.com/robots.txt et lisez le contenu.

Modifier sur Shopify

Sur Shopify, le robots.txt est contrôlé via le fichier robots.txt.liquid dans votre thème :

  1. Admin Shopify → Themes → Actions → Edit code
  2. Cherchez robots.txt.liquid dans le dossier Templates
  3. Vérifiez qu’aucun crawler IA n’est bloqué
  4. Si le fichier n’existe pas, Shopify utilise le défaut (qui est correct)

Configuration recommandée

User-agent: *
Disallow: /admin
Disallow: /cart
Disallow: /orders
Disallow: /checkouts/
Disallow: /account

# Crawlers OpenAI (entraînement + recherche/citations)
User-agent: GPTBot
Allow: /

User-agent: OAI-SearchBot
Allow: /

User-agent: ChatGPT-User
Allow: /

# Autres crawlers IA
User-agent: PerplexityBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: Google-Extended
Allow: /

Sitemap: https://votre-store.com/sitemap.xml

Ressources


Articles connexes


Prêt à vérifier votre store ? Lancer un audit GEO gratuit →

Questions fréquentes

Faut-il bloquer ou autoriser les crawlers IA comme GPTBot dans robots.txt ?
Si vous voulez que votre store soit recommandé par ChatGPT, Perplexity ou Claude, vous devez autoriser leurs crawlers. Bloquer GPTBot ou PerplexityBot rend votre store invisible pour ces IA.
Quel est le robots.txt par défaut de Shopify ?
Le robots.txt par défaut de Shopify bloque uniquement les pages d'administration, de panier et de checkout. Vos fiches produit et collections restent accessibles, ce qui est correct.
Comment modifier le robots.txt sur Shopify ?
Éditez le fichier robots.txt.liquid dans votre thème Shopify (Admin → Themes → Edit code → Templates). Si ce fichier n'existe pas, Shopify utilise le robots.txt par défaut.
Quels sont les principaux crawlers IA à autoriser ?
Les crawlers IA essentiels sont GPTBot, OAI-SearchBot et ChatGPT-User (OpenAI), PerplexityBot (Perplexity), ClaudeBot (Anthropic) et Google-Extended (Gemini). OAI-SearchBot, ajouté en décembre 2025, gère spécifiquement les citations dans ChatGPT Shopping. Ajoutez des règles Allow explicites pour chacun.
Bloquer les crawlers IA protège-t-il mon contenu du vol ?
Bloquer les crawlers empêche ces IA d'indexer et de recommander vos produits, mais ne protège pas votre contenu de la copie. C'est contre-productif si votre objectif est de vendre via ces canaux.
🧠 Testez vos connaissances
1 / 5