Vous ouvrez Google Search Console, cliquez sur Pages, et voilà : « Page avec redirection ».
Pas indexée. Pas éligible. Pas invitée à la fête. Pendant ce temps, votre chef de produit demande pourquoi le trafic a baissé,
l’équipe marketing actualise les tableaux de bord comme si c’était un sport, et vous regardez une redirection qui fonctionne parfaitement
dans le navigateur.
Voici le point de vue des systèmes de production : « Page avec redirection » est souvent normal et même souhaitable. Mais cela devient toxique
quand vous avez accidentellement appris à Google que vos URL préférées sont instables, contradictoires ou lentes à résoudre.
C’est la différence entre une couche de canonicalisation propre et un labyrinthe de redirections construit en comité.
Ce que signifie réellement « Page avec redirection »
Dans Search Console, « Page avec redirection » est un statut d’indexation, pas un jugement moral.
Cela signifie que Google a essayé de récupérer une URL et a reçu une réponse de redirection au lieu d’une réponse de contenu finale
(typiquement un 200). Google a ensuite décidé que l’URL de départ n’était pas l’URL canonique indexable. Il n’indexe donc pas
cette URL de départ ; il suit la redirection et (peut-être) indexe la destination.
C’est pourquoi ce rapport contient souvent beaucoup d’URL que vous ne voulez pas indexer intentionnellement : les variantes HTTP anciennes,
d’anciennes structures après une migration, variantes avec ou sans slash final, variantes majuscules/minuscules, et paramètres indésirables.
La question opérationnelle clé n’est pas « Comment faire disparaître ce statut ? » mais :
Les bonnes URL de destination sont-elles indexées, classées et servies de manière fiable ?
Ce que ce n’est pas
- Ce n’est pas une erreur par défaut. Une redirection est une réponse valide.
- Ce n’est pas la preuve que Google est confus. C’est la preuve que Google prête attention.
- Ce n’est pas une garantie que la destination est indexée. La redirection peut conduire à une impasse.
Comment Google le traite en coulisses (version pratique)
Googlebot récupère l’URL A, reçoit une redirection vers l’URL B, et enregistre une relation.
Si les signaux sont cohérents (la redirection est stable, B renvoie 200 et est canonique, les liens internes pointent vers B, le sitemap
référence B, les hreflang pointent vers B, etc.), Google tend à consolider les signaux d’indexation sur B et à abandonner A.
Si les signaux sont incohérents, vous obtenez l’équivalent console de haussement d’épaules.
Une réalité d’ingénierie que les spécialistes SEO oublient parfois : les redirections ne sont pas gratuites. Elles consomment du budget de crawl,
ajoutent de la latence, peuvent être mises en cache de façon étrange, et créer des comportements limites à travers les CDN, navigateurs et bots.
En production, la redirection la plus simple est celle dont vous n’avez pas besoin.
Quand c’est acceptable (et que vous devez l’ignorer)
« Page avec redirection » est sain lorsqu’il représente une canonicalisation intentionnelle ou
un mouvement planifié, et que les URL de destination sont indexées et performantes.
Vous voulez ces redirections parce qu’elles compressent les variantes d’URL en une URL préférée.
Scénarios où c’est normal
-
HTTP → HTTPS. Vous voulez que les URL HTTP redirigent définitivement.
GSC affichera souvent les URL HTTP comme « Page avec redirection. » C’est normal. - www → non-www (ou l’inverse). Là encore, l’hôte non préféré doit rediriger.
- Normalisation du slash final. Choisissez une variante et redirigez l’autre.
- Ancienne structure d’URL après une migration. Les anciens chemins redirigent vers les nouveaux.
- Nettoyage des paramètres (certains paramètres de tracking, identifiants de session). Redirigez ou canonicalisez selon la sémantique.
- Routage localisé ou régional lorsqu’il est réalisé soigneusement (et pas basé sur des heuristiques IP fragiles).
À quoi ressemble le « acceptable » dans les métriques
- Les URL de destination apparaissent sous Indexées et montrent des impressions/clics.
- Les redirections sont à saut unique (A → B), pas A → B → C → D.
- Le type de redirection est majoritairement 301/308 pour les déplacements permanents (avec rares exceptions).
- Les liens internes, les balises canonicals et les sitemaps pointent massivement vers les URL de destination.
- Les logs serveur montrent que Googlebot récupère avec succès le contenu de destination (200).
Si ces conditions sont réunies, résistez à l’envie de « corriger » le rapport en essayant d’indexer les URL redirigées.
Indexer d’anciennes URL, c’est comme garder son ancien numéro de pager parce que certaines personnes l’ont encore.
Vous ne voulez pas de ça.
Quand ça pose problème (et comment cela se manifeste)
« Page avec redirection » nuit lorsqu’il masque un désalignement entre ce que vous voulez indexer et ce que
Google peut récupérer, rendre et considérer comme canonique de manière fiable. Cela pose aussi problème lorsque les redirections sont
utilisées comme rustine pour des problèmes plus profonds (contenu dupliqué, locales mal routées, liens internes cassés, protocole/hôte incohérent).
Modes de défaillance à fort impact
1) Chaînes de redirection et gaspillage de crawl
Les chaînes se produisent lorsque plusieurs règles de normalisation s’empilent : HTTP → HTTPS → www → ajout de slash final → réécriture vers nouveau chemin.
Chaque saut ajoute de la latence et une probabilité d’échec. Google suivra les chaînes, mais pas indéfiniment, et pas sans coût.
Les chaînes augmentent aussi le risque de créer une boucle par accident.
2) Redirection vers une destination non indexable
Rediriger vers une URL qui renvoie 404, 410, 5xx, bloquée par robots.txt, ou en « noindex » revient à supprimer silencieusement des pages.
GSC affichera l’URL de départ comme « Page avec redirection », mais votre vrai problème est que la destination ne peut pas être indexée.
3) 302/307 utilisées comme redirection « permanente »
Les redirections temporaires ne sont pas toujours mauvaises, mais elles sont faciles à mal utiliser. Si vous laissez un 302 en place pendant des mois, Google peut
éventuellement le traiter comme un 301, ou bien il peut garder l’ancienne URL dans l’index plus longtemps que prévu. Ce n’est pas une stratégie ;
c’est de l’indécision en forme HTTP.
4) Signaux mixtes : la redirection dit une chose, le canonical en dit une autre
Si l’URL A redirige vers B, mais que le canonical de B pointe vers A (ou vers C), vous avez créé un conflit de canonicalisation.
Google choisira un gagnant. Il se peut que ce ne soit pas votre préféré.
5) Redirections déclenchées par user-agent, géolocalisation, cookies ou JS
Les redirections conditionnelles sont la façon la plus rapide de créer un SEO « ça marche sur mon poste ». Googlebot n’est pas votre navigateur.
Votre edge CDN n’est pas votre origine. Votre origine n’est pas votre environnement de staging. Si la redirection dépend de conditions,
vous devez la tester comme Google la voit.
6) Sitemaps remplis d’URL qui redirigent
Un sitemap est supposé lister des URL canoniques indexables. Quand vous fournissez à Google des milliers d’URL redirigées dans le sitemap,
vous l’envoyez effectivement en mission. Il obéira pendant un moment, puis vous dépriorisera silencieusement.
Blague n°1 : Les chaînes de redirection sont comme les chaînes d’approbation en entreprise — personne ne sait qui a ajouté le dernier saut, mais tout le monde subit la latence.
À quoi ressemble le « qui fait mal » dans les résultats
- Les URL préférées ne sont pas indexées, ou sont indexées de façon intermittente.
- Le rapport de couverture montre des pics de « Dupliqué, Google a choisi une autre canonique » en même temps que des redirections.
- Le rapport de performance montre une chute des impressions pour des pages migrées, sans récupération.
- Les logs serveur montrent Googlebot frappant les URL redirigeantes à répétition au lieu des destinations canoniques.
- Une grande partie de l’activité de crawl est consacrée aux redirections plutôt qu’aux URL de contenu.
Physique des redirections : 301/302/307/308, mise en cache et canonicalisation
Codes d’état, vus comme un opérateur les considère
- 301 (Moved Permanently) : « Voici la nouvelle adresse. » Mis en cache agressivement par les clients et souvent par les intermédiaires. Bon pour les déplacements canoniques.
- 302 (Found) : « Temporairement ici. » Historiquement traité comme temporaire. Les moteurs de recherche sont devenus plus flexibles, mais votre intention compte.
- 307 (Temporary Redirect) : Comme 302 mais préserve la sémantique de la méthode plus strictement. Principalement pertinent pour les API.
- 308 (Permanent Redirect) : Comme 301 mais préserve la sémantique de la méthode plus strictement. De plus en plus courant.
Balises canonical vs redirections : choisissez votre arme
Une redirection est une instruction côté serveur : « Ne restez pas ici. » Un canonical est un indice intégré à une page : « Indexez plutôt l’autre. »
Si vous pouvez rediriger en toute sécurité (sans impact utilisateur, sans raison fonctionnelle de garder l’ancienne URL), faites-le. C’est plus fort et plus propre.
Utilisez les canonicals pour les cas où le duplicata doit rester accessible (filtres, tris, paramètres de tracking, vues imprimables).
Mais ne les mélangez pas à la légère. Si vous redirigez A → B, alors le canonical de B devrait presque toujours être B. Vous voulez une histoire cohérente.
Latence et fiabilité : pourquoi les SRE se soucient des « simples redirections »
Chaque saut est une requête de plus qui peut échouer, une poignée de main TLS en plus, une recherche de cache en plus, un autre endroit où un en-tête mal configuré peut tout casser.
Multipliez par le taux de crawl de Googlebot et votre propre trafic utilisateur et vous avez un coût réel.
Une citation à épingler au tableau de bord : « L’espoir n’est pas une stratégie. »
— Gene Kranz.
Les redirections laissées en attente dans l’espoir que les moteurs comprennent sont un incident au ralenti.
Comportement de cache qu’on ne peut pas ignorer
Les redirections permanentes peuvent être mises en cache longtemps. Si vous déployez accidentellement un mauvais 301, vous ne corrigez pas juste le serveur et passez à autre chose.
Navigateurs, CDN et bots peuvent continuer à suivre l’ancien chemin. C’est pourquoi les changements de redirection méritent une gestion des changements.
Mode d’emploi pour un diagnostic rapide
Quand « Page avec redirection » semble suspect, ne commencez pas par réécrire la moitié de vos règles de réécriture. Commencez par des preuves.
Cette séquence trouve rapidement le goulot d’étranglement, même lorsque plusieurs équipes ont touché la pile.
1) Confirmer la destination finale et le nombre de sauts
- Prenez un échantillon d’URL affectées depuis GSC.
- Suivez les redirections et enregistrez : nombre de sauts, codes d’état, URL finale, statut final.
- Si le nombre de sauts > 1, vous avez déjà du travail concret à faire.
2) Valider que la destination est indexable
- Le statut final doit être 200.
- Pas de balise ou d’en-tête « noindex ».
- Non bloquée par robots.txt.
- Le canonical pointe vers elle-même (ou vers un canonical clairement intentionnel).
3) Vérifier si votre propre site vous sabote
- Les liens internes doivent pointer vers les destinations finales, pas vers des URL redirigeantes.
- Les sitemaps doivent lister les URL canoniques, pas celles qui redirigent.
- Les hreflang (si utilisées) doivent référencer les destinations canoniques.
4) Examiner les logs serveur pour le comportement de Googlebot
- Googlebot frappe-t-il à répétition les URL redirigeantes ? Cela suggère que les sources de découverte pointent encore vers elles.
- Googlebot échoue-t-il sur la destination (timeouts, 5xx, bloqué) ? C’est un problème de fiabilité, pas un problème « SEO ».
5) Si c’est une migration : comparer l’ancienne et la nouvelle couverture
- Les anciennes URL devraient être « Page avec redirection. » Les nouvelles URL devraient être indexées.
- Si les nouvelles URL ne sont pas indexées, vous avez probablement l’un de ces problèmes : noindex, blocage robots, faible maillage interne, ou conflits de canonical.
Tâches pratiques : commandes, sorties, décisions (12+)
Voici les contrôles que j’exécute réellement. Chaque tâche inclut : la commande, ce que signifie une sortie typique, et quelle décision prendre ensuite.
Remplacez les domaines et chemins d’exemple par les vôtres. Les commandes supposent que vous pouvez atteindre le site depuis un shell.
Task 1: Follow redirects and count hops
cr0x@server:~$ curl -sSIL -o /dev/null -w "final=%{url_effective} code=%{http_code} redirects=%{num_redirects}\n" http://example.com/Old-Path
final=https://www.example.com/new-path/ code=200 redirects=2
Signification : Deux redirections ont eu lieu. Le final est 200.
Décision : Si redirects > 1, essayez de regrouper les règles pour que la première réponse pointe directement vers l’URL finale.
Task 2: Print the full redirect chain (see each Location)
cr0x@server:~$ curl -sSIL http://example.com/Old-Path | sed -n '1,120p'
HTTP/1.1 301 Moved Permanently
Location: https://example.com/Old-Path
HTTP/2 301
location: https://www.example.com/new-path/
HTTP/2 200
content-type: text/html; charset=UTF-8
Signification : HTTP→HTTPS puis normalisation hôte/chemin.
Décision : Changez la première redirection pour qu’elle aille directement vers l’hôte/chemin final, pas vers un intermédiaire.
Task 3: Detect redirect loops
cr0x@server:~$ curl -sSIL --max-redirs 10 https://www.example.com/loop-test/ | tail -n +1
curl: (47) Maximum (10) redirects followed
Signification : Boucle ou chaîne excessive.
Décision : Traitez-le comme un incident : identifiez l’ensemble de règles (CDN, load balancer, origine) créant la boucle et corrigez-le avant de penser à l’indexation.
Task 4: Verify canonical tag on destination
cr0x@server:~$ curl -sS https://www.example.com/new-path/ | grep -i -m1 'rel="canonical"'
<link rel="canonical" href="https://www.example.com/new-path/" />
Signification : Le canonical pointe vers lui-même. Bon.
Décision : Si le canonical pointe ailleurs de façon inattendue, corrigez les templates ou en-têtes ; sinon Google peut ignorer votre intention de redirection.
Task 5: Check for noindex on destination (meta tag)
cr0x@server:~$ curl -sS https://www.example.com/new-path/ | grep -i -m1 'noindex'
Signification : Aucune sortie signifie que la balise meta « noindex » n’a pas été trouvée dans la première correspondance.
Décision : Si vous voyez noindex, stoppez. C’est pourquoi cela ne s’indexe pas. Corrigez la configuration de release, les drapeaux CMS, ou la fuite d’environnement staging.
Task 6: Check X-Robots-Tag header for noindex
cr0x@server:~$ curl -sSIL https://www.example.com/new-path/ | grep -i '^x-robots-tag'
X-Robots-Tag: index, follow
Signification : Les en-têtes autorisent l’indexation.
Décision : Si vous voyez « noindex », corrigez-le à la source (app, règles CDN, ou middleware de sécurité). Les en-têtes priment sur les bonnes intentions.
Task 7: Confirm robots.txt isn’t blocking the destination
cr0x@server:~$ curl -sS https://www.example.com/robots.txt | sed -n '1,120p'
User-agent: *
Disallow: /private/
Signification : robots.txt basique affiché.
Décision : Si le chemin de destination est interdit, Google peut voir la redirection mais ne pas crawler le contenu. Mettez à jour robots.txt et retestez dans GSC.
Task 8: Check whether your sitemap lists redirecting URLs
cr0x@server:~$ curl -sS https://www.example.com/sitemap.xml | grep -n 'http://example.com' | head
42: <loc>http://example.com/old-path</loc>
Signification : Le sitemap contient des URL non canoniques (hôte HTTP).
Décision : Régénérez les sitemaps pour lister uniquement les URL canoniques finales. C’est un nettoyage à faible risque et à fort rendement.
Task 9: Spot internal links that still point to redirecting URLs
cr0x@server:~$ curl -sS https://www.example.com/ | grep -oE 'href="http://example.com[^"]+"' | head
href="http://example.com/old-path"
Signification : La page d’accueil pointe encore vers l’ancienne URL HTTP.
Décision : Corrigez la génération de liens internes (templates, champs CMS). Les liens internes sont votre propre donation de budget de crawl au fonds des redirections.
Task 10: Check redirect type (301 vs 302) at the edge
cr0x@server:~$ curl -sSIL https://example.com/old-path | head -n 5
HTTP/2 302
location: https://www.example.com/new-path/
Signification : Redirection temporaire en place.
Décision : Si le déplacement est permanent, passez en 301/308. Si c’est vraiment temporaire (maintenance, A/B), assurez-vous que c’est limité dans le temps et surveillé.
Task 11: Confirm the destination returns 200 consistently (not 403/500 sometimes)
cr0x@server:~$ for i in {1..5}; do curl -sS -o /dev/null -w "%{http_code} %{time_total}\n" https://www.example.com/new-path/; done
200 0.142
200 0.151
200 0.139
500 0.312
200 0.145
Signification : 500 intermittent. C’est un bug de fiabilité.
Décision : Ne discutez pas avec GSC tant que l’origine n’est pas stable. Corrigez les erreurs en amont, puis demandez une réindexation.
Task 12: Inspect Nginx redirect rules for double normalization
cr0x@server:~$ sudo nginx -T 2>/dev/null | grep -nE 'return 301|rewrite .* permanent' | head -n 20
123: return 301 https://$host$request_uri;
287: rewrite ^/Old-Path$ /new-path/ permanent;
Signification : Plusieurs directives de redirection peuvent s’empiler (protocole + chemin).
Décision : Combinez en une redirection de canonicalisation unique lorsque possible, ou assurez-vous que l’ordre empêche le multi-saut.
Task 13: Inspect Apache rewrite rules for unintended matches
cr0x@server:~$ sudo apachectl -S 2>/dev/null | sed -n '1,80p'
VirtualHost configuration:
*:443 is a NameVirtualHost
default server www.example.com (/etc/apache2/sites-enabled/000-default.conf:1)
Signification : Confirme quel vhost est par défaut ; un vhost par défaut incorrect peut créer des redirections d’hôte inattendues.
Décision : Assurez-vous que le vhost de l’hôte canonique est correct et que les hôtes non canoniques redirigent explicitement vers lui en un seul saut.
Task 14: Use access logs to see whether Googlebot is stuck on redirecting URLs
cr0x@server:~$ sudo awk '$9 ~ /^30/ && $0 ~ /Googlebot/ {print $4,$7,$9,$11}' /var/log/nginx/access.log | head
[27/Dec/2025:09:12:44 /old-path 301 "-"
[27/Dec/2025:09:12:45 /old-path 301 "-"
Signification : Googlebot demande à répétition l’URL redirigeante. Les sources de découverte pointent encore là.
Décision : Corrigez les liens internes et les sitemaps ; envisagez de mettre à jour les références externes si vous les contrôlez (profils, propriétés détenues).
Task 15: Check for inconsistent behavior by user-agent (dangerous “smart” redirects)
cr0x@server:~$ curl -sSIL -A "Mozilla/5.0" https://www.example.com/ | head -n 5
HTTP/2 200
content-type: text/html; charset=UTF-8
cr0x@server:~$ curl -sSIL -A "Googlebot/2.1" https://www.example.com/ | head -n 5
HTTP/2 302
location: https://www.example.com/bot-landing/
Signification : Réponses différentes pour Googlebot. C’est un signal d’alerte sauf si vous avez une raison très légitime.
Décision : Supprimez la logique de redirection basée sur le UA ; cela peut ressembler à du cloaking, et cela crée de l’instabilité d’indexation.
Task 16: Validate HSTS can’t be blamed for your redirect confusion
cr0x@server:~$ curl -sSIL https://www.example.com/ | grep -i '^strict-transport-security'
Strict-Transport-Security: max-age=31536000; includeSubDomains
Signification : HSTS est activé, donc les navigateurs forceront HTTPS après le premier contact.
Décision : Ne « déboguez » pas les redirections uniquement dans un navigateur ; utilisez curl depuis un environnement propre. HSTS peut cacher le comportement HTTP et vous faire courir après des fantômes.
Trois mini-histoires d’entreprise issues des tranchées des redirections
Incident : la mauvaise hypothèse (« Google comprendra de toute façon »)
Une entreprise SaaS de taille moyenne est passée d’un CMS legacy à un framework moderne. Le plan semblait propre :
les anciennes URL redirigeraient vers les nouvelles, et le nouveau site serait plus rapide. L’ingénierie a implémenté les redirections au niveau de l’application,
et la QA a vérifié dans un navigateur. Tout le monde est rentré chez soi.
La première semaine, Search Console a commencé à se remplir de « Page avec redirection » et les impressions ont chuté pour des pages à forte valeur.
L’équipe SEO a paniqué et a demandé « supprimez les redirections ». Ce serait avoir utilisé le mauvais extincteur.
Le SRE de garde a fait l’action peu glamour : a extrait les logs serveur pour Googlebot et a rejoué les requêtes avec curl.
L’hypothèse qui les a fait tomber : « Si ça marche dans le navigateur, Googlebot voit la même chose. »
Leur CDN avait des règles d’atténuation des bots qui traitaient différemment les user-agents inconnus lors de pics de trafic.
Quand l’origine était lente, l’edge renvoyait une redirection temporaire vers une page générique « veuillez réessayer » — acceptable pour les humains,
catastrophique pour l’indexation. Googlebot suivait la redirection et trouvait du contenu maigre.
La correction n’a pas été de la « magie SEO ». Ce fut de l’hygiène de production :
ils ont exempté les bots vérifiés de la redirection d’atténuation, amélioré le cache pour les nouvelles pages, et arrêté de rediriger vers un fallback générique.
Après cela, « Page avec redirection » est resté pour les anciennes URL (attendu), tandis que les nouvelles URL se sont stabilisées et réindexées.
Optimisation qui a mal tourné : écraser les paramètres par redirections
Une organisation e‑commerce avait un problème de paramètres : des URL infinies comme ?color=blue&sort=popular&ref=ads.
Les statistiques de crawl étaient mauvaises, et quelqu’un a proposé une solution « simple » : rediriger toute URL avec paramètres vers la page de catégorie sans paramètres.
Une règle de réécriture pour les gouverner tous.
Elle a été déployée rapidement. Trop vite. Les conversions ont baissé. Le trafic organique sur les variantes longue traîne de catégorie s’est effondré.
Search Console affichait beaucoup de « Page avec redirection », mais le vrai dommage était qu’ils redirigeaient l’intention utilisateur réelle.
Certaines combinaisons de paramètres représentaient des pages filtrées pertinentes que les utilisateurs recherchaient (et qui avaient un inventaire unique).
Pire, la règle de redirection déclenchait des chaînes : URL paramétrée → catégorie propre → redirection géo → catégorie localisée.
Googlebot passait plus de temps à rebondir qu’à crawler. La latence a augmenté. Le site semblait « instable ».
Le rollback a été inconfortable mais nécessaire. Ils ont remplacé la redirection brutale par une politique :
supprimer seulement les paramètres de tracking connus (utm/ref), conserver les filtres fonctionnels indexables uniquement lorsque le contenu le justifie,
et utiliser des balises canonical pour les duplicatas. Soudain, « Page avec redirection » s’est limité aux URL indésirables, pas aux pages génératrices de revenus.
Pratique ennuyeuse mais correcte : la propreté des sitemaps et des liens internes a sauvé la situation
Une plateforme de publication a consolidé des domaines : quatre sous-domaines vers un hôte canonique.
Ils ont implémenté des redirections 301 et s’attendaient à de la turbulence. La différence : ils l’ont traité comme un changement opérationnel, pas un souhait SEO.
Avant le lancement, ils ont généré une table de correspondance (ancien → nouveau), exécuté des tests automatiques de redirection, et mis à jour les liens internes dans les templates.
Pas seulement la navigation. Pied de page, modules d’articles liés, flux RSS, tout. Ils ont aussi régénéré les sitemaps pour n’inclure que les URL canoniques
et les ont déployés en même temps.
Après le lancement, Search Console s’est rempli de « Page avec redirection » pour les anciens hôtes (comme prévu), mais le nouvel hôte s’est indexé rapidement.
Les statistiques de crawl ont montré que Googlebot a quitté les anciennes URL plus vite que lors de leurs migrations précédentes.
Leur monitoring basé sur les logs a montré une forte diminution des hits sur les redirections au fil des semaines, signe que les sources de découverte étaient propres.
La leçon n’était pas glamour : le travail ennuyeux évite la panne excitante.
Les redirections sont un pont. Il faut quand même transférer le trafic, les liens et les signaux de l’autre côté.
Erreurs courantes : symptôme → cause racine → correctif
1) Symptom: « Page with redirect » spikes after a deploy
Cause racine : Une nouvelle règle a introduit des redirections multi-sauts ou des boucles (souvent slash final + locale + normalisation d’hôte).
Correctif : Exécutez des tests de chaîne de redirection sur un échantillon d’URL ; réduisez à un saut ; ajoutez des tests de régression en CI pour les URL canoniques.
2) Symptom: Old URLs show “Page with redirect,” but new URLs are “Crawled — currently not indexed”
Cause racine : Les pages de destination sont de faible qualité/maigres, bloquées, lentes, ou ont des contradictions canonical/noindex.
Correctif : Vérifiez que la destination renvoie 200, est indexable, a un canonical auto‑référencé, et que le contenu est substantiel. Corrigez les performances et les templates.
3) Symptom: GSC shows “Page with redirect” for URLs that should be final
Cause racine : Les liens internes ou le sitemap pointent vers des variantes non canoniques, donc Google continue de découvrir la mauvaise version en premier.
Correctif : Mettez à jour les liens internes, le sitemap, les hreflang et les données structurées pour référencer uniquement les destinations canoniques.
4) Symptom: Redirects work in browser, fail for Googlebot
Cause racine : Logique conditionnelle basée sur user-agent, cookies, géo, ou mitigation bots au niveau CDN/WAF.
Correctif : Testez avec l’UA Googlebot, comparez les en-têtes, retirez les redirections conditionnelles, et assurez que la même canonicalisation s’applique de façon cohérente.
5) Symptom: Pages disappear after you “cleaned up” parameters
Cause racine : La règle de redirection a écrasé des URL significatives en pages génériques, supprimant la pertinence longue traîne.
Correctif : Ne redirigez/supprimez que les paramètres de tracking ; gérez les filtres fonctionnels avec des canonicals, des règles noindex, ou autorisez l’indexation sélective.
6) Symptom: Redirecting URLs stay in the index for months
Cause racine : Redirections temporaires (302/307) utilisées pour des déplacements permanents, ou signaux canoniques incohérents.
Correctif : Utilisez 301/308 pour les déplacements permanents ; assurez-vous que la destination est canonique ; assurez-vous que les liens internes et le sitemap pointent vers la destination.
7) Symptom: Redirects cause intermittent 5xx and crawling drops
Cause racine : La gestion des redirections au niveau applicatif déclenche une logique coûteuse ; surcharge de l’origine ; manque de cache ; frais de handshake TLS à chaque saut.
Correctif : Déplacez les redirections vers l’edge/serveur web lorsque possible ; mettez en cache les redirections ; réduisez les sauts ; surveillez la p95 de latence sur les endpoints de redirection.
Blague n°2 : Le moyen le plus rapide de trouver une règle de redirection non documentée est de la supprimer et d’attendre qu’une personne importante le remarque.
Listes de contrôle / plan pas à pas
Checklist A: You see “Page with redirect” and want to know if you should care
- Choisissez 20 URL du rapport (mélange d’importantes et aléatoires).
- Exécutez curl avec comptage de redirections. Si >1 saut sur beaucoup, il faut s’en préoccuper.
- Confirmez que les URL finales renvoient 200 et sont indexables (noindex/robots/canonical).
- Vérifiez si les URL finales sont indexées et obtiennent des impressions.
- Si les URL finales sont saines, considérez « Page avec redirection » comme informationnel.
Checklist B: Redirect cleanup that won’t cause a new incident
- Inventoriez les règles de redirection actuelles à travers les couches : CDN/WAF, load balancer, serveur web, app.
- Définissez une politique d’URL canonique : protocole, hôte, slash final, minuscules, motifs de locale.
- Assurez un saut unique vers le canonique quand c’est possible.
- Mettez à jour les liens internes et les templates pour utiliser les URL canoniques.
- Régénérez les sitemaps pour nister que les URL canoniques.
- Déployez avec surveillance : taux de redirection, 4xx/5xx sur la destination, latence.
- Après déploiement, échantillonnez les logs Googlebot et vérifiez qu’il atteint des pages 200.
Checklist C: Migration-specific plan (domains or URL structures)
- Créez un fichier de mapping (ancien → nouveau) pour toutes les URL à forte valeur ; ne vous fiez pas uniquement aux regex.
- Implémentez des redirections 301/308 et testez les boucles et chaînes.
- Maintenez la parité de contenu : titres, headings, données structurées lorsque pertinent.
- Assurez que les nouvelles pages ont des canonicals auto-référencées.
- Basculer les sitemaps vers les nouvelles URL au lancement.
- Surveillez l’indexation : les nouvelles pages doivent monter pendant que les anciennes deviennent « Page avec redirection ».
- Gardez les redirections assez longtemps (mois à années selon l’écosystème), pas deux semaines parce que quelqu’un veut des « configs propres ».
Faits intéressants et contexte historique
- Fait 1 : Les codes HTTP 301 et 302 datent des premières spécifications HTTP ; le web déplace des pages depuis quasiment toujours.
- Fait 2 : 307 et 308 ont été introduits plus tard pour clarifier le comportement préservant la méthode ; ils importent davantage pour les API mais apparaissent dans les piles modernes.
- Fait 3 : Les moteurs de recherche traitaient historiquement le 302 comme « ne pas transmettre les signaux », mais avec le temps ils se sont montrés plus flexibles quand la redirection persiste.
- Fait 4 : HSTS peut rendre les redirections HTTP→HTTPS invisibles lors de tests dans le navigateur parce que le navigateur passe à HTTPS avant d’effectuer la requête.
- Fait 5 : Les CDN implémentent souvent des redirections à l’edge ; c’est plus rapide, mais cela peut créer des interactions de règles cachées avec les redirections d’origine.
- Fait 6 : Au début, la « canonicalisation » SEO se faisait souvent avec des redirections parce que les balises canonical n’existaient pas ; plus tard, les hints canonical sont devenus un outil standard.
- Fait 7 : Les chaînes de redirection sont devenues plus courantes à mesure que les piles se sont empilées : CMS + framework + CDN + WAF + load balancer, chacun « aidant » à normaliser.
- Fait 8 : Les bots ne se comportent pas comme les utilisateurs : ils peuvent crawler à grande échelle, réessayer agressivement, et amplifier de petites inefficacités en coûts d’infrastructure importants.
FAQ
1) Dois-je essayer de faire disparaître « Page avec redirection » dans Search Console ?
Pas comme objectif. Votre objectif est que les URL de destination soient indexées et performantes. Que les URL redirigées soient « non indexées » est attendu.
Nettoyez seulement lorsque le comportement de redirection est inefficace ou incohérent.
2) « Page avec redirection » est-ce une pénalité ?
Non. C’est une classification. La pénalité est ce que vous faites ensuite — par exemple garder des chaînes, rediriger vers des pages maigres, ou envoyer des signaux canoniques mixtes.
3) Combien de redirections sont trop ?
En pratique : visez un saut. Deux est survivable. Plus que ça sent la fiabilité douteuse, et ça peut ralentir le crawling et gaspiller du budget.
Si vous voyez 3+, corrigez sauf s’il existe une raison spécifique.
4) Un 302 nuit-il au SEO comparé à un 301 ?
Parfois. Si le déplacement est permanent, utilisez 301 ou 308. Un 302 durable peut fonctionner, mais il communique de l’incertitude et peut retarder la consolidation.
Ne basez pas votre stratégie d’indexation sur « Google traitera probablement ça comme un 301 finalement ».
5) Pourquoi mon sitemap montre des URL que GSC dit être « Page avec redirection » ?
Parce que votre générateur de sitemap utilise la mauvaise base d’URL (HTTP vs HTTPS, hôte erroné) ou qu’il émet des chemins legacy.
Corrigez le générateur pour que les sitemaps listent uniquement les URL finales canoniques. C’est l’une des victoires les plus faciles sur ce sujet.
6) Et si j’ai besoin des deux versions accessibles (comme des pages filtrées), mais que je ne veux pas qu’elles soient indexées ?
Ne les redirigez pas si elles sont nécessaires fonctionnellement. Gardez-les accessibles, puis utilisez des balises canonical ou des règles noindex de façon délibérée.
Les redirections servent « ceci ne doit pas exister en tant que page d’atterrissage ».
7) « Page avec redirection » peut-il être causé par des redirections JavaScript ?
Oui, mais c’est le mode difficile. Les redirections basées sur JS peuvent être plus lentes, moins fiables pour les bots, et paraître suspectes si elles sont abusées.
Préférez les redirections côté serveur sauf si vous avez une raison forte.
8) Combien de temps dois-je garder les redirections après une migration ?
Plus longtemps que vous ne le pensez. Des mois au minimum ; souvent un an ou plus pour des sites significatifs, surtout si les anciennes URL sont largement liées.
Supprimer les redirections trop tôt revient à transformer votre migration en une récolte permanente de 404.
9) Pourquoi les URL redirigées sont-elles encore beaucoup crawlées ?
Google continue de les trouver via des liens internes, des sitemaps ou des liens externes. Les sources internes sont sous votre contrôle ; corrigez-les en premier.
Les liens externes mettent du temps à décliner. L’objectif est d’arrêter d’alimenter le problème.
10) « Page avec redirection » peut-il cacher une mauvaise configuration de sécurité ou de WAF ?
Absolument. Les WAF redirigent parfois le trafic suspect, le trafic soumis à taux-limit, ou certains user agents. Si Googlebot reçoit ce traitement,
vous verrez de l’instabilité d’indexation. Confirmez le comportement avec des tests user-agent et les logs edge.
Conclusion : prochaines étapes pratiques
« Page avec redirection » n’est pas votre ennemi. C’est une lampe torche. Parfois elle éclaire des URL que vous avez intentionnellement retirées. Super.
Parfois elle expose la dette de redirection : chaînes, boucles, canonicals mixtes, et redirections « temporaires » devenues permanentes par paresse.
Prochaines étapes qui rapportent vite :
- Échantillonnez 20–50 URL du rapport et mesurez le nombre de sauts avec curl.
- Confirmez que les destinations sont indexables (200, pas de noindex, pas bloquées, canonical auto‑référencé).
- Corrigez les liens internes et les sitemaps pour pointer vers les URL canoniques finales.
- Réduisez les redirections à un saut et standardisez sur 301/308 pour les déplacements permanents.
- Surveillez les logs : Googlebot doit passer moins de temps sur les redirections et plus sur les pages réelles.
Si vous traitez les redirections comme une infrastructure de production — observable, testable et ennuyeuse — vous obtiendrez le meilleur résultat SEO possible :
Google consacrera son temps à votre contenu plutôt qu’à votre plomberie.