Définition

Le cloaking est une technique de référencement qui consiste à présenter un contenu différent selon que la requête provient d’un moteur de recherche ou d’un visiteur humain. L’objectif est de tromper les algorithmes pour obtenir un meilleur positionnement tout en affichant aux utilisateurs une page qui n’a rien à voir avec ce que les robots ont analysé.

Google et les autres moteurs de recherche considèrent cette pratique comme une violation directe de leurs consignes aux webmasters. Elle appartient à la catégorie des techniques dites black hat, c’est-à-dire des méthodes qui cherchent à contourner les règles plutôt qu’à y répondre.

Origine du terme

Le mot vient de l’anglais “cloak”, qui désigne une cape ou un manteau servant à se dissimuler. L’image est assez juste : le site se cache derrière une version de lui-même qu’il montre aux crawlers, tout en réservant une autre version aux humains. Le terme est apparu dans le vocabulaire du référencement dans les années 1990, à une époque où les algorithmes étaient beaucoup plus simples à tromper qu’aujourd’hui.

Fonctionnement

Le principe repose sur l’identification de celui qui visite la page. Lorsqu’une requête arrive sur le serveur, un script analyse certaines informations associées à cette requête pour déterminer si elle vient d’un robot ou d’un être humain. Selon le résultat, le serveur renvoie l’une ou l’autre version du contenu.

La méthode la plus répandue consiste à lire le user-agent, c’est-à-dire la chaîne de caractères que tout navigateur ou crawler envoie pour se présenter. Googlebot, par exemple, s’identifie clairement à chaque visite. Un script peut donc détecter sa signature et lui servir une page bourrée de mots-clés, pendant que les visiteurs humains voient une page entièrement différente.

La détection par adresse IP fonctionne sur le même principe. Google publie les plages d’adresses IP utilisées par ses crawlers. Un site peut tenir à jour une liste de ces adresses et rediriger automatiquement tout trafic qui en provient vers la version optimisée.
 

graph TD
A[Requête utilisateur] –> B[Serveur web]
B –> C{Analyse du visiteur}

C –>|User-Agent / IP = Robot| D[Version optimisée SEO]
C –>|User-Agent / IP = Humain| E[Version réelle utilisateur]

D –> F[Indexation par Google]
E –> G[Affichage pour visiteur]

F –> H[Classement SEO amélioré]

 

Techniques courantes

Le cloaking par user-agent est la forme la plus directe. Le serveur lit l’identifiant du client et délivre un contenu ciblé en fonction. C’est techniquement simple à mettre en place, ce qui explique sa popularité historique.

Le texte invisible est une variante plus discrète. Il s’agit d’intégrer dans la page du texte rédigé pour les moteurs de recherche en lui donnant la même couleur que l’arrière-plan. L’oeil humain ne le voit pas, mais le crawler l’indexe. C’est une technique ancienne, facilement détectable aujourd’hui par les algorithmes qui comparent le rendu visuel et le code source.

Les redirections conditionnelles permettent de renvoyer les robots vers une URL différente de celle que voient les utilisateurs. Concrètement, Googlebot indexe une page A pendant que les visiteurs atterrissent sur une page B. Les deux pages peuvent n’avoir aucun rapport de contenu.

Risques et pénalités

Google est explicite sur ce point depuis des années : le cloaking est interdit, sans exception ni zone grise. Lorsqu’il est détecté, deux types de sanctions sont possibles. La pénalité algorithmique provoque un déclassement automatique, parfois brutal, sans notification préalable. La pénalité manuelle est appliquée par un membre de l’équipe de Google après examen du site. Elle est notifiée dans la Search Console et nécessite une demande de réexamen pour être levée, à condition que le problème ait été corrigé.

Dans les cas les plus graves, notamment quand le cloaking est utilisé pour diffuser du spam ou du contenu malveillant, le site peut être purement et simplement retiré de l’index. La désindexation est difficile à récupérer et peut prendre des mois même après correction.

Invoquer l’erreur technique ou la méconnaissance ne fonctionne pas. Google part du principe que le propriétaire d’un site est responsable de ce qui s’y passe, y compris quand c’est un prestataire ou un plugin tiers qui a introduit la pratique.

Le cloaking est-il autorisé dans certains cas ?

Il existe des situations où afficher un contenu différent selon le visiteur est tout à fait légitime, mais elles ne relèvent pas du cloaking au sens où Google l’entend. La géolocalisation pour adapter la langue d’affichage, la personnalisation selon le statut de connexion ou l’adaptation aux préférences d’accessibilité sont des pratiques acceptées, à condition que le contenu servi aux robots soit représentatif de ce que voient les utilisateurs.

La ligne que Google trace est simple : si vous êtes à l’aise à l’idée de montrer votre implémentation à un employé de Google, c’est probablement correct. Si vous préférez qu’il ne la voie pas, c’est probablement du cloaking. Cette règle informelle, souvent citée dans les consignes officielles, résume bien la distinction entre personnalisation légitime et manipulation.

FAQ

Qu’est-ce que le cloaking en SEO ?
C’est une technique qui consiste à montrer un contenu différent aux moteurs de recherche et aux visiteurs humains. Le but est d’obtenir un meilleur classement en présentant aux crawlers une version optimisée que les utilisateurs réels ne voient jamais.

Comment fonctionne le cloaking ?
Un script côté serveur analyse les informations de la requête entrante, principalement le user-agent ou l’adresse IP, pour déterminer si elle provient d’un robot ou d’un humain. Selon cette détection, il renvoie l’une ou l’autre version de la page.

Le cloaking est-il autorisé par Google ?
Non. Google l’interdit explicitement dans ses consignes aux webmasters et le classe parmi les pratiques black hat. Il n’existe pas de dérogation officielle, et la détection entraîne des sanctions sans possibilité d’invoquer une erreur involontaire.

Quels sont les types de cloaking ?
Les formes les plus courantes sont le cloaking par user-agent, le cloaking par adresse IP, les redirections conditionnelles et le texte invisible. Chacune repose sur le même principe : identifier le type de visiteur pour lui servir un contenu distinct.

Quelles pénalités risque-t-on pour cloaking ?
Les sanctions vont du déclassement dans les résultats jusqu’à la désindexation complète du site. Elles peuvent être appliquées automatiquement par l’algorithme ou manuellement par un membre de l’équipe Google après examen du site.

Quelle est la différence entre cloaking par user-agent et par IP ?
Dans le premier cas, le serveur lit l’identifiant que le navigateur ou le crawler envoie pour se présenter. Dans le second, il compare l’adresse IP de la requête avec une liste d’adresses connues pour appartenir aux robots des moteurs de recherche. Les deux méthodes servent le même objectif mais diffèrent dans leur façon d’identifier le visiteur.

Quels sont des exemples concrets de cloaking ?
Un site de paris en ligne qui montre à Googlebot une page consacrée aux règles du sport pour se positionner sur des requêtes grand public, tout en redirigeant les visiteurs vers ses formulaires de jeu. Un site de vente qui intègre dans son code des blocs de texte optimisés pour des mots-clés, en les rendant invisibles à l’écran via une couleur identique à l’arrière-plan. Une page d’accueil qui affiche un article de blog aux crawlers et une publicité pour un produit douteux aux utilisateurs.