Fin mai 2024, un document interne de plusieurs milliers de pages de chez Google a fuité. C’est le Google leaks. Petits tremblement de terre dans le monde du SEO à plusieurs titres :
J’ai lu beaucoup de choses (c’est souvent assez technique). Je fais ici une synthèse de ce qui me parait actionable pour mes sites.
Tous ces éléments sont à prendre avec précaution, ne sont pas garantis et peuvent évoluer (prendre encore plus d’importance ou bien disparaitre). Il y a de fortes chances que la généralisation de l’IA remettent en cause les critères classiques du moteur.
Bonne lecture.
Google a toujours démenti que le CTR (taux de clics) était pris en compte. Depuis Google Leaks, on sait de façon définitive que c’est le cas.
D’après Sylvain Peyronnet, la popularité serait calculée différemment si le site est « gros » ou « petit ». Gros site > le CTR est un élément important du calcul. Petit site > c’est plus la popularité classique (Pagerank).
Donc plus votre CTR est élevé plus votre ranking est bon. Mais ce n’est pas tout. Une fois cliqué, Google traque ce que fait l’internaute sur votre site et analyse notamment le temps passé sur le site, les conversions, etc. Je pense que c’est surtout cela qu’il faut viser : garder l’utilisateur sur son site. Et ça passe par un trafic qualifié et une UX irréprochable.
Faire la promotion de ses contenus sur les réseaux devient indispensable pour booster le CTR.
Les clics sont calculés sur les 13 derniers mois donc un pic de clics ne veut pas dire un changement de position immédiat forcément.
Attention, si le CTR devient un facteur de classement, il est aussi un facteur de déclassement (désindexation ?). Une page non visitée pourrait être désindéxée par Google.
De façon générale Google traque de plus en plus finement (notamment grâce aux données Chrome) le comportement des utilisateurs. Le temps passé sur une page (et sur le site) est clairement un signal positif. Tout doit être fait pour garder l’internaute sur le site. Cela rejoint les nouvelles métriques GA4 de l’engagement et du taux d’engagement.
Les données Chrome serviraient aussi à déterminer les contenus populaires et ainsi à générer les Sitelinks.
Le SEO « old school » permet d’arriver sur la première page. Pour être 1er, les signaux utilisateurs de Google vont faire la différence.
Confirmation que Google classe les liens selon leur qualité. Les liens de piètre qualité sont ignorés. La qualité de la page source (SourceType) est un élément déterminant.
Ce que l’on savait moins c’est que Google analyse la taille de la police de l’ancre. Evitez donc les polices trop petites pour vos ancres de liens.
Un « vieux » lien aurait aussi plus de poids qu’un lien récent.
Les ancres de liens et le contexte du lien (phrases avant et après) doivent refléter le contenu de la page liée.
Google analyse les contenus attendus pour une requête. C’est ce que l’on appelle l’intention de recherche. Exemple : certaines SERP proposeront des listes de produits à acheter, d’autres des guides, d’autres des articles de fond, etc. Vous devez donc créer des contenus qui répondent à cette intention de recherche si vous voulez avoir une chance d’être dans les premières positions. Contenu ne veut pas dire « texte » mais aussi : vidéo, infographie, petit tool, etc.
Visiblement Google se fait maintenant une idée de la qualité et de la crédibilité d’un site dans son entier (SiteAuthority). C’est nouveau car jusqu’à présent on pensait que Google ne voyait qu’une somme d’url. Google scannerait le site : son contenu, son architecture, son template (webdesign), etc. et déterminerait si le site est de qualité ou pas. Cela lui donne ainsi des indices de confiance supplémentaires.
Si le site comprend des pages moyennes non positionnées sur Google, la question de les rediriger, les supprimer (réfléchir à deux fois avant de supprimer une page) ou de les enrichir se pose ! Ouvrez régulièrement votre outils de statistiques pour voir si des pages ne sont jamais vues.
3 outils que j’utilise au quotidien et qui m’aident dans cet analyse :
Conclusion : l’UX devient un incontournable (temps passé sur le site + qualité du site).
Faire des sites qui plaisent aux humains avec que des clics utiles et une navigation bien pensée. Objectif : garder l’internaute.
L’historique du domaine semble être un point positif. Si vous pouvez acheter votre domaine sur plusieurs années (et pas qu’une seule année), c’est un gage de confiance.
La découverte de l’attribut exact_match_domain_demotion laisse à penser que Google déprécierait les EMD. A confirmer.
Attention car les EMD semblent être au contraire privilégiés pour Bing.
Développer le trafic local de son site : QRcode dans les commerces, prospectus dans les boîtes aux lettres
Google essaye de déterminer la thématique du site ET des url.
Plusieurs attributs :
Conclusion : ne pas s’éparpiller sur des thématiques trop disparates.
Google a l’air d’essayer de plus en plus de savoir qui écrit quoi ?
Il faut donc donner toutes les infos nécessaires qui vont rassurer Google : adresse, numéro de SIRET, numéro de TVA, profil réseaux sociaux.
Le but du jeu est d’être reconnu par Google en temps que spécialiste de son domaine. Donc il faut mettre en avant sa marque et nom autant que possible et bien entendu toujours publier du contenu de qualité.
Cela renforce l’idée qu’investir dans son personal branding est sans doute intéressant.
L’existence de la Sand Box (bac à sable) semble confirmée. Les nouveaux sites seraient pénalisés en termes de positionnement le temps que Google se fasse une idée de la qualité du site.
Conclusion : lors d’un lancement de site, privilégier les contenus de qualité et très thématisés et augmenter le rythme de publication régulièrement. Si vous pouvez acheter un domaine expiré, vous gagnerez du temps.
Il semble que Google privilégie les gros sites avec une forte autorité par rapport aux petit blogs.
Conclusion : mieux vaut un gros site bien dodu et bien focus sur une thématique que plusieurs petits.
——————-
Je ne répète pas ici tout ce que l’on connait déjà :
Emmanuel Armand
Consultant SEO Grenoble