Google démasqué : des documents internes révèlent les secrets du SEO

Par Iris M. le 03/06/2024

Temps de lecture : 4 min

La caverne d’Ali Baba s’ouvre à vous.

Vous le savez, sur le web, chacun de vos mouvements est traqué et analysé par Google. Par conséquent, il en sait plus sur vous que beaucoup de vos proches… ce qui fait de la confidentialité des données un sujet majeur. Alors, quand c’est Google lui-même qui voit son linge sale être étalé sur la plage publique, il y a de quoi rire jaune. 

Il y a de cela quelques jours, une source anonyme a contacté Rand Fishkin (fondateur de SparkToro et cofondateur de Moz et Inbound.org), une autorité du monde du SEO. Cette source lui a dévoilé des milliers de documents internes provenant de l’équipe de recherche de Google, dont la véracité a été confirmée par d’anciens employés de l’entreprise. Le plus important : ces documents contredisent certaines des allégations publiques de Google

Ces documents pourraient permettre à tous les fans de SEO de savoir, entre autres informations sensibles, ce qui est réellement prise en compte par le géant américain lorsqu’il classe les résultats de recherches. Une information que beaucoup essayent en déchiffrer depuis des années, avec beaucoup de théories et très peu de certitudes. Sauf que la tendance s’inverse enfin

Les éléments les plus importants pour mieux comprendre l’algorithme Google : 

  • – Google analyse vos clics : 

Le comportement que vous adoptez après ceux-ci pour son classement et fait la différence entre clics longs et courts. Les clics longs permettent à une page de remonter, tandis que les clics courts montrent l’insatisfaction. C’est le premier facteur de classement. La date du dernier clic, la provenance des clics en moyenne et le nombre de clics écrasés (provenant potentiellement de bots) ont également une importance. Les pages sont classées en qualité élevée, moyenne et faible en fonction du nombre de clics et de leur provenance. 

  • – Les données issues de Chrome sont inclues dans le scoring SEO de Google, et les données de clics proviennent principalement de ce navigateur

  • – En fonction du sujet, Google peut établir des listes blanches (constituées de sites qui jouissent d’un traitement préférentiel, car considérés dignes de confiance par Google) qui garantissent la fiabilité des résultats de recherche. C’est le cas pour les informations sanitaires, les informations liées aux élections et celles liées aux… sites de voyage. Eh oui, pas question de booker un programme de vacances obsolète ! 

  • – Google adapte les résultats de certaines recherches en fonction du comportement des utilisateurs : si vous cherchez quelque chose, puis recherchez immédiatement quelque chose de lié, mais légèrement différent, alors les sites mentionnant les mots clés de la seconde recherche seront boostés dans les résultats de la première. 

  • – Google cherche à analyser qui est l’auteur d’une page : l’entreprise examine si celui-ci est identifié à travers une page LinkedIn, certification ou autre. Plus l’auteur est identifié, plus le contenu est crédible aux yeux de Google. 

  • – Les scores de pertinence sont également basés sur des évaluations humaines, pas uniquement par l’algorithme Google. Donc n’oubliez pas d’écrire avant tout pour votre audience ! 

  • – Sans grande surprise, les contenus récents sont favorisés. Les critères sont : la date contenue dans votre URL, dans le titre de votre page, la date de publication de cette dernière, la date indiquée dans les données structurées de l’article et enfin, la date indiquée dans le texte en lui-même. 

  • – Google prend surtout en compte le début de votre document dans son classement. Pour qu’il soit bien référencé, les informations importances doivent être indiquées le plus tôt possible. 

  • – Les backlinks (les liens d’autres sites vers le vôtre) jouent toujours dans le classement des pages. Google est ainsi fidèle à son algorithme originel.

  • – Ces documents ont révélé l’existence de la sandbox, que Google a longtemps nié. Celle-ci met “en quarantaine” les nouveaux sites, le temps que Google puisse vérifier leur légitimité et fiabilité. 

  • – Certains comportements utilisateurs infligent des pénalités aux pages : celles avec une mauvaise expérience utilisateurs peuvent être rétrogradées, tout comme les pages aux mauvais avis produits ; les spams évidents (mauvais backlinks) sont pénalisés et enfin, un nom de domaine peut être dévalorisé par l’algorithme. 

  • – Les résultats locaux sont parfois favorisés par rapport aux résultats généraux. 

  • – Google est capable d’identifier la nature d’un site web : news, YMYL (Your Money, Your Life), blog personnel, commerce en ligne et hébergeur de vidéos. 

Pour ceux à qui le code et les heures d’analyse ne font pas peur, les documents sources sont disponibles ici. Maintenant, il ne vous reste plus qu’à adapter votre stratégie SEO. 

News Scan Book

La collab' du siècle : Burger King et KFC

1

2

3

4

5

Précédent Suivant