Avant de commencer, il est important de souligner que le contenu suivant est une traduction adaptée d’un article original en anglais. La source sera indiquée au terme de notre exposé.
Cette semaine, des documents ont fait l’objet d’une fuite et sont censés nous donner un rare aperçu de ce qui se passe derrière le rideau du plus grand moteur de recherche du monde, Google.
Maintenant que nous sommes sur la même longueur d’onde :
Que contient cette « fuite » ?
Sommaire
Il s’agit en fait d’une référence à tous les différents attributs et modules potentiellement utilisés dans Google Search (y compris les données du navigateur Chrome !).
Il est important de noter que les documents divulgués n’indiquent pas le poids spécifique des éléments en tant que facteurs de classement. Ils ne prouvent pas non plus quels éléments sont réellement utilisés dans les systèmes de classement.
Et ce n’est pas parce que Google collecte des données qu’il les utilise !
En revanche, ils montrent les types de données que Google est susceptible de collecter et la quantité qu’il recueille – rien que cela est époustouflant.
Jetez un coup d’œil à cette page qui répertorie ce genre de choses :
Ou s’il y a une rétrogradation basée sur Panda :
Et très honnêtement :
Il y a des choses vraiment bizarres ici, comme le Twiddler des tons de peau…
Je vous parlerai plus en détail des Twiddlers plus tard.
Cela pourrait être un événement sismique dans le monde du référencement.
Mais n’oubliez pas qu’il s’agit d’une fuite non confirmée et que nous ne savons pas si Google l’utilise pour classer les sites web dans les recherches !
Ceci étant dit :
Voici les 22 éléments qui m’ont le plus marqué jusqu’à présent, y compris quelques nouvelles découvertes qui n’ont été couvertes nulle part ailleurs.
22 éléments inédits dans la fuite de documents de Google
L’autorité de domaine existe probablement
Il est possible que Google utilise une mesure de type « autorité de domaine » dans son processus de classement.
Les documents ayant fait l’objet d’une fuite ont révélé une mesure appelée « siteAuthority » (autorité du site) et « authorityPromotion » (autorité de la promotion).
Cela semble étroitement lié à l’autorité du domaine et s’applique probablement à l’ensemble du site lors de la détermination des classements.
Pourquoi est-ce si surprenant ?
Pendant des années, Google a toujours nié l’existence d’une mesure de l’autorité du domaine. Il n’a cessé de répéter que SEULES les pages individuelles sont évaluées sur la base de leur PageRank.
Il n’y a jamais eu de facteur de classement de l’autorité à l’échelle d’un site.
Mais ce n’est pas tout…
La fuite a également confirmé l’existence d’un signal appelé « Homepage PageRank ».
On pense que Google utilise le score PageRank de la page d’accueil d’un site web pour les nouvelles pages jusqu’à ce que ces dernières obtiennent leur propre score PageRank.
En fait, le Pagerank est mentionné 16 fois dans les documents :
Il est probablement utilisé en combinaison avec « siteAuthority » ci-dessus.
Il est donc probable que l’autorité de votre site web soit importante.
Il est important d’asseoir son autorité à l’aide de backlinks de qualité, de mentions de la marque et d’autres signaux d’autorité hors site.
Les clics comptent
C’est l’une des révélations les moins surprenantes…
Les clics jouent un rôle important dans le classement des sites de recherche.
Grâce au récent procès antitrust de Google, nous savons déjà que des systèmes tels que NavBoost et Glue existent.
Mais ce que nous ignorons, c’est l’impact de ces systèmes sur les SERP.
Je m’explique :
NavBoost est un système unique de Google Search qui utilise des informations sur les clics et les interactions des utilisateurs avec les résultats de recherche pour ajuster les classements.
NavBoost examine différents types de clics :
- Bons clics : utilisés pour identifier les interactions positives des utilisateurs avec les résultats de recherche.
- MauvaisClics : utilisés pour identifier les interactions négatives des utilisateurs avec les résultats de recherche.
- Derniers clics les plus longs : permet de mesurer le temps que les utilisateurs passent sur une page web après avoir cliqué sur les résultats de recherche Google avant de revenir.
- Impressions : utilisé pour suivre le nombre de fois qu’un résultat de recherche est affiché aux utilisateurs.
- Clics écrasés : les clics qui sont considérés comme ayant moins de valeur ou comme du spam.
- Clics non écrasés : clics considérés comme plus utiles et authentiques.
- Clics licornes : clics spécifiques présentant des caractéristiques uniques, indiquant potentiellement des interactions de haute qualité.
Google a déclaré que les données relatives aux clics n’avaient pas d’incidence sur le classement des recherches, alors pourquoi ces données sont-elles collectées ?
Cependant, la fuite confirme que Google utilise les clics comme mesure clé pour évaluer la pertinence et la qualité d’une page.
Il classe même la qualité des clics par catégorie !
C’est fou, non ?
Je pense que les données relatives aux clics jouent un rôle important dans le classement des recherches. C’est surtout à cause d’un courriel du vice-président de Google, Alexander Grushetsky, que je pense que les données sur les clics jouent un rôle important dans le classement des recherches :
C’est une chose dont tous les référenceurs devraient être conscients.
L’essentiel est de créer un contenu de qualité qui réponde à l’intention de recherche. Optimisez votre site et votre contenu pour augmenter le taux de clics et la durée d’affichage.
Concentrez-vous sur l’expérience de l’utilisateur et réduisez le pogo-sticking autant que possible.
Google sandbox est probablement réel
Je dis depuis longtemps que le bac à sable de Google existe. La plupart des référenceurs l’ont compris en testant leurs propres sites web.
Malgré cela, Google a fermement nié l’existence d’un tel bac à sable. Mais les documents qui ont fait l’objet d’une fuite suggèrent le contraire.
Google utilise une mesure appelée « hostAge » qui fait référence au bac à sable :
Cela signifie probablement que les sites web établis et de confiance gagnent beaucoup plus rapidement des places dans les classements. Les nouveaux sites doivent prouver qu’ils sont dignes de confiance avant d’être autorisés à sortir du « bac à sable ».
Google pourrait mettre des sites web sur liste blanche
Lors d’événements majeurs tels que la pandémie de COVID-19 ou les élections démocratiques, Google a collecté les données isElectionAuthority et isCovidLocalAuthority.
Ces « listes blanches » s’étendent également à d’autres niches telles que :
- Le voyage
- La santé
- La politique
Et même les restaurants, semble-t-il :
Si cela est vrai, cela montre que Google pourrait accorder un traitement préférentiel à certains sites web s’il le souhaitait.
Les données de Chrome pourraient être utilisées pour le classement
Cela ne m’a pas complètement choqué.
Nous avons déjà pu démontrer que si vous téléchargez un PDF sur un tout nouveau domaine, puis que vous accédez à l’URL directe de ce PDF dans Chrome, le PDF sera magiquement indexé.
Mais Google a toujours affirmé qu’il n’utilisait AUCUNE donnée de Google Chrome dans le cadre de la recherche organique. En 2012, Matt Cutts a déclaré : « Google n’utilise pas les données de Chrome à des fins de classement ou de qualité de recherche ».
John Mueller a également renforcé cette idée au fil des ans.
Mais il semble que Google suive les interactions des utilisateurs via le navigateur Chrome en utilisant uniqueChromeViews :
Mais ce n’est pas tout…
Ils utilisent également la mesure chromeInTotal pour suivre les consultations de Chrome au niveau du site :
Une source anonyme a déclaré que le navigateur Chrome avait été créé presque uniquement pour collecter davantage de données sur les clics. Vilain Google.
N’oublions pas qu’ils ont également admis qu’ils collectaient les données des utilisateurs lorsqu’ils utilisaient le mode incognito depuis des années.
Il n’y a pas un seul algorithme de classement
Google utilise plusieurs algorithmes et systèmes pour classer les sites web.
La plupart des gens considèrent l’algorithme de Google comme une seule chose. Une équation massive de calculs complexes qui détermine le classement des sites web et l’ordre dans lequel ils sont classés.
Mais Google est plus sophistiqué que cela…
La documentation montre que le système de classement de Google est en fait une série de microservices. Chacun d’entre eux a été conçu à des fins différentes.
Voici une liste des systèmes mentionnés par fonction et par nom :
Crawling (littéralement « exploration »)
Trawler : Gère l’exploration du web, y compris la file d’attente d’exploration et comprend la fréquence à laquelle les pages sont mises à jour/modifiées.
Indexation
- Alexandria : Système d’indexation primaire.
- SegIndexer : Organise les pages web en niveaux dans l’index de Google.
- TeraGoogle : Système d’indexation secondaire, probablement responsable de la gestion des pages qui ne sont pas mises à jour fréquemment.
Rendu
HtmlrenderWebkitHeadless : Gère le rendu des pages JavaScript.
Traitement
- LinkExtractor : Extrait les liens des pages.
- WebMirror : Gère la canonicalisation et la duplication.
Classement
- Mustang : Système principal de notation, de classement et d’affichage du contenu dans les SERP.
- Ascorer : Algorithme principal de classement avant les ajustements de reclassement.
- NavBoost : Reclassements basés sur les journaux de clics des utilisateurs (énorme découverte).
Fraîcheur
- Twiddler : Reclasse en fonction de divers éléments.
- WebChooserScorer : Définit les caractéristiques de l’évaluation des snippets.
Service
- Serveur Web de Google (GWS) : Serveur frontal interagissant avec les utilisateurs.
- SuperRoot : Gère le post-traitement et le reclassement des résultats.
- SnippetBrain : Génère des extraits de résultats.
- Glue : Rassemble les résultats universels en se basant sur le comportement de l’utilisateur.
- Livre de recettes : Système permettant de générer des signaux et des valeurs au moment de l’exécution.
Les documents ayant fait l’objet d’une fuite décrivent d’autres systèmes de classement, comme SAFT. Mais en me basant uniquement sur la documentation, je n’ai pas réussi à comprendre ce qu’ils font réellement.
Voici ce qui est intéressant :
L’algorithme de Google fonctionne par couches. Le premier système de classement fait son travail, suivi du deuxième, du troisième et ainsi de suite.
Chaque système s’ajuste en fonction des facteurs qu’il traite, ce qui permet d’obtenir une version affinée des résultats de recherche.
On peut supposer que lorsque Google met à jour son algorithme, il modifie les pondérations de chaque système. C’est pourquoi des mises à jour différentes affectent des sites web différents.
Remarque : le poids et l’influence de chacun de ces systèmes dans la détermination des classements sont inconnus et nous ne savons pas non plus si Google utilise réellement l’un ou l’autre de ces systèmes.
Google « bidouille » les résultats de recherche
Il n’y a pas beaucoup d’informations sur les « Twiddlers » en ligne, c’est pourquoi nous allons expliquer leur rôle ici :
Les Twiddlers sont des filtres en coulisses. Ils modifient les résultats de recherche une fois que l’algorithme de classement principal a fait son travail.
Voici comment ils fonctionnent :
Juste avant l’affichage d’un résultat de recherche, un Twiddler intervient et procède à quelques ajustements finaux. Ces ajustements peuvent soit booster un site web, soit le faire reculer.
Les Twiddlers sont un moyen pour Google d’affiner le classement des recherches en fonction de facteurs de classement autres que ceux pris en compte par l’algorithme principal.
Les systèmes Google qui utilisent probablement la fonction Twiddler sont les suivants :
- NavBoost
- QualityBoost
- RealTimeBoost
- WebImageBoost
En fait, tout système se terminant par « Boost ».
Mais la référence la plus étrange que j’aie trouvée est celle du Twiddler des tons de peau :
Je ne sais pas vraiment ce que cela fait, mais il semble y avoir beaucoup de possibilités de modifier les résultats de la recherche !
Google Authorship existe toujours
Il semble que Google puisse stocker des informations sur les auteurs dans son index.
Qu’est-ce que cela signifie ?
Cela indique que l’authorship pourrait encore être un facteur de classement.
L’E-E-A-T a fait l’objet de nombreux débats parmi les référenceurs. Cela s’explique principalement par le fait qu’il est très difficile d’évaluer quantitativement l’« expertise » et l’« autorité ».
Mais les fuites montrent clairement que les données et les informations sont associées à des auteurs. Google dispose d’une fonction « isAuthor » et d’un « authorName » dans l’algorithme :
Tout cela joue probablement un rôle dans leur algorithme.
Le texte d’ancrage est important
Google utilise le texte d’ancrage des liens pour mesurer la pertinence de la qualité.
Le texte d’ancrage est si important qu’une erreur peut avoir une incidence sur l’impact du lien sur votre site web (rétrogradation, promotion, ignorance).
Google surveille toutes sortes de signaux de spam liés au texte d’ancrage :
Mais ils ne s’arrêtent pas là.
Il existe également ce document qui recueille encore plus de données sur les textes d’ancrage :
La plupart des gens pensent que Google utilise le texte de l’ancre pour comprendre le site web vers lequel pointe le lien. C’est vrai, mais il n’examine le lien que d’un seul côté.
Google examine les deux côtés du lien et utilise le texte d’ancrage comme signal. L’algorithme vérifie si la page web est pertinente par rapport au texte d’ancrage.
Si le texte d’ancrage ne décrit pas précisément le contenu du site cible, la page web peut être rétrogradée dans les résultats de recherche. Il est également possible que Google ignore le lien.
Il est donc essentiel que le texte d’ancrage soit pertinent et précis.
Défis liés aux domaines de correspondance exacte
L’utilisation d’un nom de domaine à correspondance exacte peut poser quelques problèmes.
Je m’explique :
Des domaines tels que « BestCheapLaptops.com » ou « NewYorkLocksmith.com » peuvent être considérés comme du spam ou de la manipulation. Cela est particulièrement vrai si le contenu de ces domaines est de faible qualité ou de nature spammy.
Ce point est important en raison de l’émoi suscité par exactMatchDomainDemotion :
Bien qu’il s’agisse probablement de signaux mineurs, il est clair qu’il existe une distinction nette avec les domaines de correspondance exacte.
De plus, si vous êtes attentif, vous verrez que cela suggère que les EMD (Exact Match Domain) ont été précédemment boostés :
C’est logique, car tous ceux qui font du référencement depuis un certain temps savent que les EMD ont l’habitude de donner un énorme coup de pouce dans les SERP.
Panda est basé sur le comportement et les liens
Google Panda a toujours été considéré comme la mise à jour de la « qualité du contenu ».
Ce qui n’était pas clair, c’était le fonctionnement de Panda. Jusqu’à présent…
L’algorithme Panda se concentre sur la manière dont les utilisateurs interagissent avec un site web (comportement de l’utilisateur) et sur les sites qui relient les domaines racine (backlinks).
Google attribue ensuite à chaque site web un « Site Quality Score » (score de qualité du site) basé sur la qualité de son contenu et le nombre de backlinks de qualité, qui agit comme un modificateur de classement.
Si votre score est élevé, vous bénéficiez d’un coup de pouce.
Si votre score est faible, vous risquez d’être rétrogradé par Panda.
Comment Panda mesure-t-il le comportement des utilisateurs ?
Réponse courte : NavBoost.
Le système Panda travaille probablement avec le système NavBoost pour analyser le comportement des utilisateurs comme les clics, les interactions et autres engagements.
Cela se répercute sur le score de qualité du site et a un impact sur votre classement.
Il s’agit d’une information révélatrice sur Panda, car le modificateur affecte l’ensemble de votre site web. Il est essentiel d’avoir un profil de liens retour solide et de veiller à ce que votre site web offre une excellente expérience utilisateur.
Google pourrait vous rétrograder
Ce n’est pas très agréable à entendre, mais cela pourrait être vrai.
Au cours de la fuite, de nombreuses « rétrogradations » ont été publiées. Il s’agit de facteurs de classement qui, s’ils sont appliqués, peuvent faire baisser votre classement de manière significative.
Ce qui est intéressant, c’est que certaines « rétrogradations » étaient auparavant qualifiées de « boosts », comme l’exactMatchDomainDemotion :
Voici une liste de quelques-unes d’entre elles :
- Inadéquation de l’ancre : Si le texte de l’ancre d’un lien ne correspond pas au contenu du site vers lequel il pointe, Google réduit sa valeur (comme indiqué au point 9).
- Rétrogradation dans les SERP : Si une page montre des signes que les utilisateurs ne sont pas satisfaits d’après les résultats de recherche et les clics, elle peut être rétrogradée.
- Rétrogradation de la navigation : Les pages présentant une mauvaise navigation ou une mauvaise expérience utilisateur peuvent être moins bien classées.
- Déclassement des domaines de correspondance exacte : Les domaines de correspondance exacte (par exemple, « bestrunningshoes.com ») ne bénéficient pas d’un meilleur classement et peuvent même être examinés de plus près.
- Rétrogradation des commentaires sur les produits : Les évaluations de produits de faible qualité sont identifiées et moins bien classées.
- Rétrogradation en fonction de l’emplacement : Les pages qui ne sont pas spécifiques à un lieu donné peuvent être moins bien classées, car Google tente d’orienter les internautes vers des pages dont le contenu est pertinent en fonction du lieu où ils se trouvent.
- Déclassement des contenus pornographiques : Les contenus pour adultes sont évidemment moins bien classés.
- Déclassement Panda : Semble liée à la mise à jour Panda.
- Autres rétrogradations de liens : Google dispose d’un graphe de liens très sophistiqué qui l’aide à comprendre les liens retour.
Voici ce qu’il faut retenir maintenant :
Vous ne devriez pas avoir de problème tant que vous avez un excellent contenu, une excellente expérience utilisateur et un solide profil de liens retour.
La longueur du contenu est importante
Google dispose d’un système de jetons pour mesurer l’originalité du contenu.
Pourquoi ce système est-il important ?
Google examine le nombre de jetons et le compare au nombre total de mots de la page.
Mais voici la partie la plus importante…
Le système dispose de :
- numTokens – Nombre maximal de tokens (mots) qu’il peut traiter sur une seule page. Cela signifie que si votre contenu dépasse cette limite, tous les tokens (mots) supplémentaires au-delà du maximum ne sont pas pris en compte.
- leadingtext – Semble stocker explicitement le texte d’introduction d’une page.
C’est pourquoi vous devez placer vos informations les plus importantes et les plus uniques le plus haut possible sur la page. Cela devrait permettre à Google de les lire correctement.
Il convient également de souligner le « OriginalContentScore » qui ne semble s’appliquer qu’aux contenus courts.
Cela signifie que la qualité du contenu n’est pas uniquement basée sur la longueur.
Il existe également le score spamtokensContentScore qui est utilisé dans un twiddler :
Par conséquent, si vous devez rédiger un long contenu, veillez à ce que les éléments les plus importants soient placés le plus près possible du début.
Les évaluateurs de qualité pourraient compter
Si vous ne le saviez pas…
Google dispose d’une équipe humaine d’« évaluateurs de qualité » chargée d’évaluer les sites web. L’entreprise s’est montrée publique à ce sujet et a même publié les directives relatives aux évaluateurs de qualité qu’elle donne à son équipe.
Mais personne ne sait avec certitude comment (ou même si) les évaluateurs de qualité peuvent influer sur l’algorithme de recherche.
Les documents de recherche de Google qui ont fait l’objet d’une fuite nous donnent un aperçu de la situation.
En résumé : Ils peuvent probablement le faire.
Certains éléments montrent que les informations recueillies par les évaluateurs de la qualité sont stockées, comme les attributs furballUrl et raterCanUnderstandTopic sur les évaluations de la pertinence.
Et l’attribut humanRatings :
Il y a aussi d’autres références ici :
Je me demande ce qu’est le « golden set » externe à l’EWOK.
On ne sait toujours pas si ces informations sont utilisées uniquement pour les ensembles de données d’entraînement ou si elles ont un impact réel sur l’algorithme.
Cela signifie que si un évaluateur de la qualité visite votre site web, il y a de fortes chances que son avis ait une incidence sur votre classement.
Il vaut la peine de vérifier les lignes directrices de Google relatives au taux de qualité de la recherche pour s’assurer que votre site web est à la hauteur.
Les liens retour sont toujours importants
Depuis longtemps, Google affirme que les liens sont moins importants qu’auparavant. Je ne pense pas que quelqu’un l’ait cru, car des tests indépendants ont prouvé le contraire. Les documents ayant fait l’objet d’une fuite ne contiennent aucune information montrant que les liens sont moins importants.
En fait, il y a l’attribut linkInfo :
L’attribut linkInfo indique l’importance des liens pour le modèle :
Qui plus est ?
Les backlinks agissent comme un modificateur sur de nombreux facteurs de classement et sur de nombreux tordeurs.
L’importance accrue du PageRank pour les pages d’accueil et la métrique siteAuthority indiquent également que les liens retour sont toujours très importants.
C’est probablement la raison pour laquelle le PageRank est mentionné 16 fois au total :
Le « graphe de liens » que les ingénieurs de Google utilisent pour comprendre les liens retour est assez sophistiqué. C’est la raison pour laquelle Google est si doué pour identifier les liens de haute et de basse qualité.
Mais il est clair que le Pagerank est important dans ces documents :
En effet :
Les liens semblent être si importants pour l’algorithme de Google que…
Le trafic a un impact sur la valeur des liens
Cette question était vraiment intéressante et c’est quelque chose que moi et beaucoup d’autres référenceurs avons répété pendant des années.
Elle provient d’une source anonyme liée aux documents de recherche de Google qui ont fait l’objet d’une fuite.
Google classe les liens en 3 catégories (sourceType) :
- Faible qualité
- Qualité moyenne
- Haute qualité
Ils utilisent ensuite les données relatives aux clics pour déterminer la catégorie du lien.
Si vous créez un lien à partir d’une page qui ne reçoit pas de trafic, le lien est placé dans la catégorie « faible qualité ». Il n’aura aucun effet sur le classement de votre site web, et Google peut même l’ignorer complètement.
D’un autre côté…
L’obtention d’un lien à partir d’une page très fréquentée a l’effet inverse. Google considère le lien comme étant de « haute qualité », ce qui permet à votre site d’être mieux classé.
Comment Google sait-il quelles pages obtiennent des clics ?
Grâce à l’attribut totalClicks, bien sûr :
L’obtention d’un lien à partir d’une page de premier plan devrait avoir un impact plus important sur votre classement. En effet, le lien est également considéré comme étant de meilleure qualité.
En résumé, voici ce qu’il faut retenir…Vous souhaitez probablement obtenir des liens retour provenant de pages régulièrement mises à jour et bénéficiant d’un véritable trafic organique. Ce sont elles qui auront probablement le plus d’impact sur votre site !
La vitesse des backlinks est mesurée
De nombreuses mesures avancées sont collectées pour contrôler la vitesse des backlinks.
La vélocité des backlinks se réfère simplement à la vitesse à laquelle un site web gagne ou perd des backlinks sur une certaine période de temps.
L’un des signaux que Google peut utiliser à cette fin est la mesure « PhraseAnchorSpamDays », qui permet de suivre la vitesse et le volume des nouveaux liens.
Cela permet de faire la distinction entre une véritable croissance des liens et des tentatives délibérées de manipuler les classements.
Voilà qui donne une idée assez précise de la manière dont les pénalités de Google pour les liens pourraient être imposées.
Vos modifications sont suivies
L’index de Google fonctionne un peu comme la Wayback Machine.
Il stocke les différentes versions des pages web au fil du temps. La documentation de Google semble même suggérer que Google conserve à jamais un enregistrement de tout ce qu’il indexe.
C’est la raison pour laquelle vous ne pouvez pas rediriger une page vers une autre page en espérant que l’équité du lien sera transmise. Google connaît le contexte et la pertinence de la page précédente.
Mais le système lui-même semble ne prendre en compte que les 20 dernières versions (urlHistory) de la page :
Qu’est-ce que cela signifie ?
En théorie, pour « repartir à zéro » avec Google, vous devrez peut-être apporter des modifications et réindexer les pages plus de 20 fois.
Les signaux des utilisateurs sont essentiels
L’article de SparkToro partage un courriel du vice-président de Google, Alexander Grushetsky :
Ils ont également partagé un résumé qui, parmi beaucoup d’autres choses intéressantes, se lit comme suit :« Navboost. C’est déjà l’un des signaux de classement les plus forts de Google ».
Il est donc clair que l’intention de l’utilisateur est extrêmement importante dans l’algorithme de recherche de Google.
Si les internautes effectuent une recherche, passent devant votre site web et cliquent sur un concurrent un nombre suffisant de fois. Google reconnaîtra que votre concurrent répond mieux que vous à la requête.
L’algorithme est conçu pour promouvoir votre site web en tête des résultats de recherche organiques parce qu’il est cliqué. Même si vous ne disposez pas d’un contenu de qualité ou d’un profil de liens retour solide…
Google récompensera probablement votre site web parce que les utilisateurs le veulent.
Cela signifie que l’intention de l’utilisateur et le système NavBoost sont probablement les facteurs de classement les plus influents dans l’algorithme de Google, au-delà des liens retour.
On peut dire que des backlinks pertinents vous permettront d’atteindre la page 1, mais des signaux positifs de la part des utilisateurs sont nécessaires pour que vous y restiez.
La fraîcheur du contenu est importante
Nous savons que Google aime les contenus frais et les contenus anciens régulièrement mis à jour.
Ce document montre que Google dispose de plusieurs indicateurs conçus pour mesurer la fraîcheur du contenu d’une page.
Voici les trois plus importantes :
- bylineDate – Il s’agit de la date affichée sur la page.
- syntacticDate – Il s’agit de la date figurant dans l’URL ou dans le titre.
- semanticDate – Il s’agit de la date estimée à partir du contenu de la page.
Il semble que Google veuille être extrêmement confiant dans la fraîcheur du contenu. Il dispose de plusieurs mesures qu’il peut utiliser pour se référer l’une à l’autre.
Il existe également les attributs lastSignificantUpdate et contentage :
Veillez à ce que la date de mise à jour de votre contenu soit cohérente dans les données structurées, les titres de page, le contenu et les sitemaps. Mettez votre contenu à jour pour qu’il reste frais.
Informations sur l’enregistrement des domaines
Google recueille et stocke les dernières informations relatives à l’enregistrement des domaines. Cela signifie qu’il sait probablement à qui appartient chaque domaine et où il est enregistré.
Les noms de domaine sont comme une propriété numérique. Google utilise son statut de registraire de domaine pour suivre l’historique de la propriété d’un domaine.
Il n’est pas confirmé qu’il utilise ces informations pour influer sur les résultats de recherche, mais il est certain qu’il recueille les données et qu’il a abordé la question de l’abus des domaines expirés dans la mise à jour de mars 2024.
Les petits sites personnels sont signalés
Cela risque de faire réagir beaucoup de monde.
Et je peux comprendre pourquoi.
Il existe un attribut spécifique qui indique qu’un site est un « petit site personnel ».
La grande question est de savoir pourquoi.
Dans la capture d’écran ci-dessus, il est indiqué « Score de promotion des petits sites personnels », donc peut-être est-ce utilisé pour aider à promouvoir les petits sites personnels ?
Il n’y a pas d’informations supplémentaires sur la signification d’un petit site personnel.
Il n’y a pas non plus d’indication que cela soit utilisé dans l’algorithme pour quoi que ce soit.
Mais qui sait ?
Pour conclure
N’oubliez pas de télécharger le PDF ici pour vous y référer rapidement. N’oubliez pas :
Il s’agit d’une fuite non confirmée. Nous ne savons pas si Google utilise l’un des modules ou attributs pour classer les sites web.
Même si Google recueille ces données, cela ne signifie pas qu’il les utilise dans ses algorithmes de classement.
Qu’est-ce que j’en retiens ?
La vérité est que rien de ce qui a été révélé ne changera radicalement ma façon de faire du référencement cette année.
En fait, la fuite reflète l’étude de cas que j’ai publiée en 2012 :
- Créez un contenu de qualité
- Faites-en la promotion
Cette étude de cas de 2012 a en fait été inspirée par une vidéo de Matt Cutts publiée il y a 14 ans, en 2010, qui disait en substance : «
- Faites quelque chose d’original, d’unique ou de différent
- Créez un contenu utile à la communauté
- Répondez à des questions courantes dans votre créneau
- Publiez des recherches originales
- Créez des vidéos
- Publiez des guides pratiques et des tutoriels
- Créez des listes de ressources utiles
Il est étrange de constater que les conseils de Matt Cutts sont toujours d’actualité et, sans doute, plus que jamais.
Source originale de l’article: 22 things we might have learned from the Google search leak