22 choses que nous aurions pu apprendre de la fuite chez Google

Avant de commencer, il est important de souligner que le contenu suivant est une traduction adaptée d’un article original en anglais. La source sera indiquée au terme de notre exposé.

Cette semaine, des documents ont fait l’objet d’une fuite et sont censés nous donner un rare aperçu de ce qui se passe derrière le rideau du plus grand moteur de recherche du monde, Google.

Maintenant que nous sommes sur la même longueur d’onde :

Que contient cette « fuite » ?

Que contient cette « fuite » ?Il s’agit en fait d’une référence à tous les différents attributs et modules potentiellement utilisés dans Google Search (y compris les données du navigateur Chrome !).

Il est important de noter que les documents divulgués n’indiquent pas le poids spécifique des éléments en tant que facteurs de classement. Ils ne prouvent pas non plus quels éléments sont réellement utilisés dans les systèmes de classement.

Et ce n’est pas parce que Google collecte des données qu’il les utilise !

En revanche, ils montrent les types de données que Google est susceptible de collecter et la quantité qu’il recueille – rien que cela est époustouflant.

Jetez un coup d’œil à cette page qui répertorie ce genre de choses :

Jetez un coup d'œil à cette page qui répertorie ce genre de choses Ou s’il y a une rétrogradation basée sur Panda :

Ou s'il y a une rétrogradation basée sur Panda :Et très honnêtement :

Il y a des choses vraiment bizarres ici, comme le Twiddler des tons de peau…

Je vous parlerai plus en détail des Twiddlers plus tard.

Cela pourrait être un événement sismique dans le monde du référencement.

Mais n’oubliez pas qu’il s’agit d’une fuite non confirmée et que nous ne savons pas si Google l’utilise pour classer les sites web dans les recherches !

Ceci étant dit :

Voici les 22 éléments qui m’ont le plus marqué jusqu’à présent, y compris quelques nouvelles découvertes qui n’ont été couvertes nulle part ailleurs.

22 éléments inédits dans la fuite de documents de Google

L’autorité de domaine existe probablement

L'autorité de domaine existe probablementIl est possible que Google utilise une mesure de type « autorité de domaine » dans son processus de classement.

Les documents ayant fait l’objet d’une fuite ont révélé une mesure appelée « siteAuthority » (autorité du site) et « authorityPromotion » (autorité de la promotion).

Cela semble étroitement lié à l’autorité du domaine et s’applique probablement à l’ensemble du site lors de la détermination des classements.

Pourquoi est-ce si surprenant ?

Pendant des années, Google a toujours nié l’existence d’une mesure de l’autorité du domaine. Il n’a cessé de répéter que SEULES les pages individuelles sont évaluées sur la base de leur PageRank.

Il n’y a jamais eu de facteur de classement de l’autorité à l’échelle d’un site.

Mais ce n’est pas tout…

La fuite a également confirmé l’existence d’un signal appelé « Homepage PageRank ».

Homepage PageRankOn pense que Google utilise le score PageRank de la page d’accueil d’un site web pour les nouvelles pages jusqu’à ce que ces dernières obtiennent leur propre score PageRank.

En fait, le Pagerank est mentionné 16 fois dans les documents :

le PagerankIl est probablement utilisé en combinaison avec « siteAuthority » ci-dessus.

Il est donc probable que l’autorité de votre site web soit importante.

Il est important d’asseoir son autorité à l’aide de backlinks de qualité, de mentions de la marque et d’autres signaux d’autorité hors site.

Les clics comptent

C’est l’une des révélations les moins surprenantes…

Les clics jouent un rôle important dans le classement des sites de recherche.

Grâce au récent procès antitrust de Google, nous savons déjà que des systèmes tels que NavBoost et Glue existent.

Mais ce que nous ignorons, c’est l’impact de ces systèmes sur les SERP.

Les clics comptentJe m’explique :

NavBoost est un système unique de Google Search qui utilise des informations sur les clics et les interactions des utilisateurs avec les résultats de recherche pour ajuster les classements.

NavBoostNavBoost examine différents types de clics :

  • Bons clics : utilisés pour identifier les interactions positives des utilisateurs avec les résultats de recherche.
  • MauvaisClics : utilisés pour identifier les interactions négatives des utilisateurs avec les résultats de recherche.
  • Derniers clics les plus longs : permet de mesurer le temps que les utilisateurs passent sur une page web après avoir cliqué sur les résultats de recherche Google avant de revenir.
  • Impressions : utilisé pour suivre le nombre de fois qu’un résultat de recherche est affiché aux utilisateurs.
  • Clics écrasés : les clics qui sont considérés comme ayant moins de valeur ou comme du spam.
  • Clics non écrasés : clics considérés comme plus utiles et authentiques.
  • Clics licornes : clics spécifiques présentant des caractéristiques uniques, indiquant potentiellement des interactions de haute qualité.

Google a déclaré que les données relatives aux clics n’avaient pas d’incidence sur le classement des recherches, alors pourquoi ces données sont-elles collectées ?

Cependant, la fuite confirme que Google utilise les clics comme mesure clé pour évaluer la pertinence et la qualité d’une page.

Il classe même la qualité des clics par catégorie !

C’est fou, non ?

Je pense que les données relatives aux clics jouent un rôle important dans le classement des recherches. C’est surtout à cause d’un courriel du vice-président de Google, Alexander Grushetsky, que je pense que les données sur les clics jouent un rôle important dans le classement des recherches :

C’est une chose dont tous les référenceurs devraient être conscients.

L’essentiel est de créer un contenu de qualité qui réponde à l’intention de recherche. Optimisez votre site et votre contenu pour augmenter le taux de clics et la durée d’affichage.

Concentrez-vous sur l’expérience de l’utilisateur et réduisez le pogo-sticking autant que possible.

Google sandbox est probablement réel

Je dis depuis longtemps que le bac à sable de Google existe. La plupart des référenceurs l’ont compris en testant leurs propres sites web.

Malgré cela, Google a fermement nié l’existence d’un tel bac à sable. Mais les documents qui ont fait l’objet d’une fuite suggèrent le contraire.

Google utilise une mesure appelée « hostAge » qui fait référence au bac à sable :

Google sandbox est probablement réelCela signifie probablement que les sites web établis et de confiance gagnent beaucoup plus rapidement des places dans les classements. Les nouveaux sites doivent prouver qu’ils sont dignes de confiance avant d’être autorisés à sortir du « bac à sable ».

Google pourrait mettre des sites web sur liste blanche

Lors d’événements majeurs tels que la pandémie de COVID-19 ou les élections démocratiques, Google a collecté les données isElectionAuthority et isCovidLocalAuthority.

Google pourrait mettre des sites web sur liste blancheCes « listes blanches » s’étendent également à d’autres niches telles que :

  • Le voyage
  • La santé
  • La politique

Et même les restaurants, semble-t-il :

Google pourrait mettre des sites web sur liste blancheSi cela est vrai, cela montre que Google pourrait accorder un traitement préférentiel à certains sites web s’il le souhaitait.

Les données de Chrome pourraient être utilisées pour le classement

Cela ne m’a pas complètement choqué.

Nous avons déjà pu démontrer que si vous téléchargez un PDF sur un tout nouveau domaine, puis que vous accédez à l’URL directe de ce PDF dans Chrome, le PDF sera magiquement indexé.

Mais Google a toujours affirmé qu’il n’utilisait AUCUNE donnée de Google Chrome dans le cadre de la recherche organique. En 2012, Matt Cutts a déclaré : « Google n’utilise pas les données de Chrome à des fins de classement ou de qualité de recherche ».

John Mueller a également renforcé cette idée au fil des ans.

Mais il semble que Google suive les interactions des utilisateurs via le navigateur Chrome en utilisant uniqueChromeViews :

Les données de Chrome pourraient être utilisées pour le classementMais ce n’est pas tout…

Ils utilisent également la mesure chromeInTotal pour suivre les consultations de Chrome au niveau du site :

Les données de Chrome pourraient être utilisées pour le classementUne source anonyme a déclaré que le navigateur Chrome avait été créé presque uniquement pour collecter davantage de données sur les clics. Vilain Google.

N’oublions pas qu’ils ont également admis qu’ils collectaient les données des utilisateurs lorsqu’ils utilisaient le mode incognito depuis des années.

Il n’y a pas un seul algorithme de classement

Google utilise plusieurs algorithmes et systèmes pour classer les sites web.

La plupart des gens considèrent l’algorithme de Google comme une seule chose. Une équation massive de calculs complexes qui détermine le classement des sites web et l’ordre dans lequel ils sont classés.

Mais Google est plus sophistiqué que cela…

La documentation montre que le système de classement de Google est en fait une série de microservices. Chacun d’entre eux a été conçu à des fins différentes.

Voici une liste des systèmes mentionnés par fonction et par nom :

Crawling (littéralement « exploration »)

Trawler : Gère l’exploration du web, y compris la file d’attente d’exploration et comprend la fréquence à laquelle les pages sont mises à jour/modifiées.

Indexation

  • Alexandria : Système d’indexation primaire.
  • SegIndexer : Organise les pages web en niveaux dans l’index de Google.
  • TeraGoogle : Système d’indexation secondaire, probablement responsable de la gestion des pages qui ne sont pas mises à jour fréquemment.

Rendu

HtmlrenderWebkitHeadless : Gère le rendu des pages JavaScript.

Traitement

  • LinkExtractor : Extrait les liens des pages.
  • WebMirror : Gère la canonicalisation et la duplication.

Classement

  • Mustang : Système principal de notation, de classement et d’affichage du contenu dans les SERP.
  • Ascorer : Algorithme principal de classement avant les ajustements de reclassement.
  • NavBoost : Reclassements basés sur les journaux de clics des utilisateurs (énorme découverte).

Fraîcheur

  • Twiddler : Reclasse en fonction de divers éléments.
  • WebChooserScorer : Définit les caractéristiques de l’évaluation des snippets.

Service

  • Serveur Web de Google (GWS) : Serveur frontal interagissant avec les utilisateurs.
  • SuperRoot : Gère le post-traitement et le reclassement des résultats.
  • SnippetBrain : Génère des extraits de résultats.
  • Glue : Rassemble les résultats universels en se basant sur le comportement de l’utilisateur.
  • Livre de recettes : Système permettant de générer des signaux et des valeurs au moment de l’exécution.

Les documents ayant fait l’objet d’une fuite décrivent d’autres systèmes de classement, comme SAFT. Mais en me basant uniquement sur la documentation, je n’ai pas réussi à comprendre ce qu’ils font réellement.

Voici ce qui est intéressant :

L’algorithme de Google fonctionne par couches. Le premier système de classement fait son travail, suivi du deuxième, du troisième et ainsi de suite.

Chaque système s’ajuste en fonction des facteurs qu’il traite, ce qui permet d’obtenir une version affinée des résultats de recherche.

On peut supposer que lorsque Google met à jour son algorithme, il modifie les pondérations de chaque système. C’est pourquoi des mises à jour différentes affectent des sites web différents.

Remarque : le poids et l’influence de chacun de ces systèmes dans la détermination des classements sont inconnus et nous ne savons pas non plus si Google utilise réellement l’un ou l’autre de ces systèmes.

Google « bidouille » les résultats de recherche

Il n’y a pas beaucoup d’informations sur les « Twiddlers » en ligne, c’est pourquoi nous allons expliquer leur rôle ici :

Les Twiddlers sont des filtres en coulisses. Ils modifient les résultats de recherche une fois que l’algorithme de classement principal a fait son travail.

Voici comment ils fonctionnent :

Juste avant l’affichage d’un résultat de recherche, un Twiddler intervient et procède à quelques ajustements finaux. Ces ajustements peuvent soit booster un site web, soit le faire reculer.

Google « bidouille » les résultats de rechercheLes Twiddlers sont un moyen pour Google d’affiner le classement des recherches en fonction de facteurs de classement autres que ceux pris en compte par l’algorithme principal.

Les systèmes Google qui utilisent probablement la fonction Twiddler sont les suivants :

  • NavBoost
  • QualityBoost
  • RealTimeBoost
  • WebImageBoost

Google « bidouille » les résultats de rechercheEn fait, tout système se terminant par « Boost ».

Mais la référence la plus étrange que j’aie trouvée est celle du Twiddler des tons de peau :

TwiddlerJe ne sais pas vraiment ce que cela fait, mais il semble y avoir beaucoup de possibilités de modifier les résultats de la recherche !

Google Authorship existe toujours

Il semble que Google puisse stocker des informations sur les auteurs dans son index.

Qu’est-ce que cela signifie ?

Cela indique que l’authorship pourrait encore être un facteur de classement.

L’E-E-A-T a fait l’objet de nombreux débats parmi les référenceurs. Cela s’explique principalement par le fait qu’il est très difficile d’évaluer quantitativement l’« expertise » et l’« autorité ».

Google Authorship existe toujoursMais les fuites montrent clairement que les données et les informations sont associées à des auteurs. Google dispose d’une fonction « isAuthor » et d’un « authorName » dans l’algorithme :

Tout cela joue probablement un rôle dans leur algorithme.

Le texte d’ancrage est important

Google utilise le texte d’ancrage des liens pour mesurer la pertinence de la qualité.

Le texte d’ancrage est si important qu’une erreur peut avoir une incidence sur l’impact du lien sur votre site web (rétrogradation, promotion, ignorance).

Google surveille toutes sortes de signaux de spam liés au texte d’ancrage :

Le texte d'ancrage est importantMais ils ne s’arrêtent pas là.

Il existe également ce document qui recueille encore plus de données sur les textes d’ancrage :

Le texte d'ancrage est importantLa plupart des gens pensent que Google utilise le texte de l’ancre pour comprendre le site web vers lequel pointe le lien. C’est vrai, mais il n’examine le lien que d’un seul côté.

Google examine les deux côtés du lien et utilise le texte d’ancrage comme signal. L’algorithme vérifie si la page web est pertinente par rapport au texte d’ancrage.

Si le texte d’ancrage ne décrit pas précisément le contenu du site cible, la page web peut être rétrogradée dans les résultats de recherche. Il est également possible que Google ignore le lien.

Il est donc essentiel que le texte d’ancrage soit pertinent et précis.

Défis liés aux domaines de correspondance exacte

L’utilisation d’un nom de domaine à correspondance exacte peut poser quelques problèmes.

Je m’explique :

Des domaines tels que « BestCheapLaptops.com » ou « NewYorkLocksmith.com » peuvent être considérés comme du spam ou de la manipulation. Cela est particulièrement vrai si le contenu de ces domaines est de faible qualité ou de nature spammy.

Ce point est important en raison de l’émoi suscité par exactMatchDomainDemotion :

Défis liés aux domaines de correspondance exacteBien qu’il s’agisse probablement de signaux mineurs, il est clair qu’il existe une distinction nette avec les domaines de correspondance exacte.

De plus, si vous êtes attentif, vous verrez que cela suggère que les EMD (Exact Match Domain) ont été précédemment boostés :

Défis liés aux domaines de correspondance exacteC’est logique, car tous ceux qui font du référencement depuis un certain temps savent que les EMD ont l’habitude de donner un énorme coup de pouce dans les SERP.

Panda est basé sur le comportement et les liens

Google Panda a toujours été considéré comme la mise à jour de la « qualité du contenu ».

Ce qui n’était pas clair, c’était le fonctionnement de Panda. Jusqu’à présent…

L’algorithme Panda se concentre sur la manière dont les utilisateurs interagissent avec un site web (comportement de l’utilisateur) et sur les sites qui relient les domaines racine (backlinks).

Google attribue ensuite à chaque site web un « Site Quality Score » (score de qualité du site) basé sur la qualité de son contenu et le nombre de backlinks de qualité, qui agit comme un modificateur de classement.

Si votre score est élevé, vous bénéficiez d’un coup de pouce.

Si votre score est faible, vous risquez d’être rétrogradé par Panda.

Panda est basé sur le comportement et les liensComment Panda mesure-t-il le comportement des utilisateurs ?

Réponse courte : NavBoost.

Le système Panda travaille probablement avec le système NavBoost pour analyser le comportement des utilisateurs comme les clics, les interactions et autres engagements.

Panda est basé sur le comportement et les liensCela se répercute sur le score de qualité du site et a un impact sur votre classement.

Il s’agit d’une information révélatrice sur Panda, car le modificateur affecte l’ensemble de votre site web. Il est essentiel d’avoir un profil de liens retour solide et de veiller à ce que votre site web offre une excellente expérience utilisateur.

Google pourrait vous rétrograder

Ce n’est pas très agréable à entendre, mais cela pourrait être vrai.

Au cours de la fuite, de nombreuses « rétrogradations » ont été publiées. Il s’agit de facteurs de classement qui, s’ils sont appliqués, peuvent faire baisser votre classement de manière significative.

Ce qui est intéressant, c’est que certaines « rétrogradations » étaient auparavant qualifiées de « boosts », comme l’exactMatchDomainDemotion :

Google pourrait vous rétrograderVoici une liste de quelques-unes d’entre elles :

  • Inadéquation de l’ancre : Si le texte de l’ancre d’un lien ne correspond pas au contenu du site vers lequel il pointe, Google réduit sa valeur (comme indiqué au point 9).
  • Rétrogradation dans les SERP : Si une page montre des signes que les utilisateurs ne sont pas satisfaits d’après les résultats de recherche et les clics, elle peut être rétrogradée.
  • Rétrogradation de la navigation : Les pages présentant une mauvaise navigation ou une mauvaise expérience utilisateur peuvent être moins bien classées.
  • Déclassement des domaines de correspondance exacte : Les domaines de correspondance exacte (par exemple, « bestrunningshoes.com ») ne bénéficient pas d’un meilleur classement et peuvent même être examinés de plus près.
  • Rétrogradation des commentaires sur les produits : Les évaluations de produits de faible qualité sont identifiées et moins bien classées.
  • Rétrogradation en fonction de l’emplacement : Les pages qui ne sont pas spécifiques à un lieu donné peuvent être moins bien classées, car Google tente d’orienter les internautes vers des pages dont le contenu est pertinent en fonction du lieu où ils se trouvent.
  • Déclassement des contenus pornographiques : Les contenus pour adultes sont évidemment moins bien classés.
  • Déclassement Panda : Semble liée à la mise à jour Panda.
  • Autres rétrogradations de liens : Google dispose d’un graphe de liens très sophistiqué qui l’aide à comprendre les liens retour.

Voici ce qu’il faut retenir maintenant :

Vous ne devriez pas avoir de problème tant que vous avez un excellent contenu, une excellente expérience utilisateur et un solide profil de liens retour.

La longueur du contenu est importante

Google dispose d’un système de jetons pour mesurer l’originalité du contenu.

Pourquoi ce système est-il important ?

Google examine le nombre de jetons et le compare au nombre total de mots de la page.

Mais voici la partie la plus importante…

Le système dispose de :

  • numTokens – Nombre maximal de tokens (mots) qu’il peut traiter sur une seule page. Cela signifie que si votre contenu dépasse cette limite, tous les tokens (mots) supplémentaires au-delà du maximum ne sont pas pris en compte.
  • leadingtext – Semble stocker explicitement le texte d’introduction d’une page.

La longueur du contenu est importanteC’est pourquoi vous devez placer vos informations les plus importantes et les plus uniques le plus haut possible sur la page. Cela devrait permettre à Google de les lire correctement.

Il convient également de souligner le « OriginalContentScore » qui ne semble s’appliquer qu’aux contenus courts.

OriginalContentScoreCela signifie que la qualité du contenu n’est pas uniquement basée sur la longueur.

Il existe également le score spamtokensContentScore qui est utilisé dans un twiddler :

spamtokensContentScorePar conséquent, si vous devez rédiger un long contenu, veillez à ce que les éléments les plus importants soient placés le plus près possible du début.

Les évaluateurs de qualité pourraient compter

Si vous ne le saviez pas…

Google dispose d’une équipe humaine d’« évaluateurs de qualité » chargée d’évaluer les sites web. L’entreprise s’est montrée publique à ce sujet et a même publié les directives relatives aux évaluateurs de qualité qu’elle donne à son équipe.

Mais personne ne sait avec certitude comment (ou même si) les évaluateurs de qualité peuvent influer sur l’algorithme de recherche.

Les documents de recherche de Google qui ont fait l’objet d’une fuite nous donnent un aperçu de la situation.

En résumé : Ils peuvent probablement le faire.

Certains éléments montrent que les informations recueillies par les évaluateurs de la qualité sont stockées, comme les attributs furballUrl et raterCanUnderstandTopic sur les évaluations de la pertinence.

Et l’attribut humanRatings :

Les évaluateurs de qualité pourraient compter humanRatingsIl y a aussi d’autres références ici :

Les évaluateurs de qualité pourraient compterJe me demande ce qu’est le « golden set » externe à l’EWOK.

On ne sait toujours pas si ces informations sont utilisées uniquement pour les ensembles de données d’entraînement ou si elles ont un impact réel sur l’algorithme.

Cela signifie que si un évaluateur de la qualité visite votre site web, il y a de fortes chances que son avis ait une incidence sur votre classement.

Il vaut la peine de vérifier les lignes directrices de Google relatives au taux de qualité de la recherche pour s’assurer que votre site web est à la hauteur.

Les liens retour sont toujours importants

Depuis longtemps, Google affirme que les liens sont moins importants qu’auparavant. Je ne pense pas que quelqu’un l’ait cru, car des tests indépendants ont prouvé le contraire. Les documents ayant fait l’objet d’une fuite ne contiennent aucune information montrant que les liens sont moins importants.

En fait, il y a l’attribut linkInfo :

L’attribut linkInfo indique l’importance des liens pour le modèle :

Les liens retour sont toujours importantsQui plus est ?

Les backlinks agissent comme un modificateur sur de nombreux facteurs de classement et sur de nombreux tordeurs.

L’importance accrue du PageRank pour les pages d’accueil et la métrique siteAuthority indiquent également que les liens retour sont toujours très importants.

C’est probablement la raison pour laquelle le PageRank est mentionné 16 fois au total :

PageRankLe « graphe de liens » que les ingénieurs de Google utilisent pour comprendre les liens retour est assez sophistiqué. C’est la raison pour laquelle Google est si doué pour identifier les liens de haute et de basse qualité.

Mais il est clair que le Pagerank est important dans ces documents :

PagerankEn effet :

Les liens semblent être si importants pour l’algorithme de Google que…

Le trafic a un impact sur la valeur des liens

Cette question était vraiment intéressante et c’est quelque chose que moi et beaucoup d’autres référenceurs avons répété pendant des années.

Elle provient d’une source anonyme liée aux documents de recherche de Google qui ont fait l’objet d’une fuite.

Google classe les liens en 3 catégories (sourceType) :

  • Faible qualité
  • Qualité moyenne
  • Haute qualité

Le trafic a un impact sur la valeur des liensIls utilisent ensuite les données relatives aux clics pour déterminer la catégorie du lien.

Si vous créez un lien à partir d’une page qui ne reçoit pas de trafic, le lien est placé dans la catégorie « faible qualité ». Il n’aura aucun effet sur le classement de votre site web, et Google peut même l’ignorer complètement.

D’un autre côté…

L’obtention d’un lien à partir d’une page très fréquentée a l’effet inverse. Google considère le lien comme étant de « haute qualité », ce qui permet à votre site d’être mieux classé.

Comment Google sait-il quelles pages obtiennent des clics ?

Grâce à l’attribut totalClicks, bien sûr :

l'attribut totalClicksL’obtention d’un lien à partir d’une page de premier plan devrait avoir un impact plus important sur votre classement. En effet, le lien est également considéré comme étant de meilleure qualité.

En résumé, voici ce qu’il faut retenir…Vous souhaitez probablement obtenir des liens retour provenant de pages régulièrement mises à jour et bénéficiant d’un véritable trafic organique. Ce sont elles qui auront probablement le plus d’impact sur votre site !

La vitesse des backlinks est mesurée

De nombreuses mesures avancées sont collectées pour contrôler la vitesse des backlinks.

La vélocité des backlinks se réfère simplement à la vitesse à laquelle un site web gagne ou perd des backlinks sur une certaine période de temps.

L’un des signaux que Google peut utiliser à cette fin est la mesure « PhraseAnchorSpamDays », qui permet de suivre la vitesse et le volume des nouveaux liens.

PhraseAnchorSpamDaysCela permet de faire la distinction entre une véritable croissance des liens et des tentatives délibérées de manipuler les classements.

Voilà qui donne une idée assez précise de la manière dont les pénalités de Google pour les liens pourraient être imposées.

Vos modifications sont suivies

L’index de Google fonctionne un peu comme la Wayback Machine.

Il stocke les différentes versions des pages web au fil du temps. La documentation de Google semble même suggérer que Google conserve à jamais un enregistrement de tout ce qu’il indexe.

Vos modifications sont suiviesC’est la raison pour laquelle vous ne pouvez pas rediriger une page vers une autre page en espérant que l’équité du lien sera transmise. Google connaît le contexte et la pertinence de la page précédente.

Mais le système lui-même semble ne prendre en compte que les 20 dernières versions (urlHistory) de la page :

urlHistoryQu’est-ce que cela signifie ?

En théorie, pour « repartir à zéro » avec Google, vous devrez peut-être apporter des modifications et réindexer les pages plus de 20 fois.

Les signaux des utilisateurs sont essentiels

L’article de SparkToro partage un courriel du vice-président de Google, Alexander Grushetsky :

Les signaux des utilisateurs sont essentielsIls ont également partagé un résumé qui, parmi beaucoup d’autres choses intéressantes, se lit comme suit :« Navboost. C’est déjà l’un des signaux de classement les plus forts de Google ».

Il est donc clair que l’intention de l’utilisateur est extrêmement importante dans l’algorithme de recherche de Google.

Si les internautes effectuent une recherche, passent devant votre site web et cliquent sur un concurrent un nombre suffisant de fois. Google reconnaîtra que votre concurrent répond mieux que vous à la requête.

L’algorithme est conçu pour promouvoir votre site web en tête des résultats de recherche organiques parce qu’il est cliqué. Même si vous ne disposez pas d’un contenu de qualité ou d’un profil de liens retour solide…

Google récompensera probablement votre site web parce que les utilisateurs le veulent.

Cela signifie que l’intention de l’utilisateur et le système NavBoost sont probablement les facteurs de classement les plus influents dans l’algorithme de Google, au-delà des liens retour.

On peut dire que des backlinks pertinents vous permettront d’atteindre la page 1, mais des signaux positifs de la part des utilisateurs sont nécessaires pour que vous y restiez.

La fraîcheur du contenu est importante

Nous savons que Google aime les contenus frais et les contenus anciens régulièrement mis à jour.

Ce document montre que Google dispose de plusieurs indicateurs conçus pour mesurer la fraîcheur du contenu d’une page.

La fraîcheur du contenu est importanteVoici les trois plus importantes :

  • bylineDate – Il s’agit de la date affichée sur la page.
  • syntacticDate – Il s’agit de la date figurant dans l’URL ou dans le titre.
  • semanticDate – Il s’agit de la date estimée à partir du contenu de la page.

Il semble que Google veuille être extrêmement confiant dans la fraîcheur du contenu. Il dispose de plusieurs mesures qu’il peut utiliser pour se référer l’une à l’autre.

Il existe également les attributs lastSignificantUpdate et contentage :

les attributs lastSignificantUpdate et contentageVeillez à ce que la date de mise à jour de votre contenu soit cohérente dans les données structurées, les titres de page, le contenu et les sitemaps. Mettez votre contenu à jour pour qu’il reste frais.

Informations sur l’enregistrement des domaines

Google recueille et stocke les dernières informations relatives à l’enregistrement des domaines. Cela signifie qu’il sait probablement à qui appartient chaque domaine et où il est enregistré.

Informations sur l'enregistrement des domainesLes noms de domaine sont comme une propriété numérique. Google utilise son statut de registraire de domaine pour suivre l’historique de la propriété d’un domaine.

Il n’est pas confirmé qu’il utilise ces informations pour influer sur les résultats de recherche, mais il est certain qu’il recueille les données et qu’il a abordé la question de l’abus des domaines expirés dans la mise à jour de mars 2024.

Les petits sites personnels sont signalés

Cela risque de faire réagir beaucoup de monde.

Et je peux comprendre pourquoi.

Il existe un attribut spécifique qui indique qu’un site est un « petit site personnel ».

Les petits sites personnels sont signalésLa grande question est de savoir pourquoi.

Dans la capture d’écran ci-dessus, il est indiqué « Score de promotion des petits sites personnels », donc peut-être est-ce utilisé pour aider à promouvoir les petits sites personnels ?

Il n’y a pas d’informations supplémentaires sur la signification d’un petit site personnel.

Il n’y a pas non plus d’indication que cela soit utilisé dans l’algorithme pour quoi que ce soit.

Mais qui sait ?

Pour conclure

N’oubliez pas de télécharger le PDF ici pour vous y référer rapidement. N’oubliez pas :

Il s’agit d’une fuite non confirmée. Nous ne savons pas si Google utilise l’un des modules ou attributs pour classer les sites web.

Même si Google recueille ces données, cela ne signifie pas qu’il les utilise dans ses algorithmes de classement.

Qu’est-ce que j’en retiens ?

La vérité est que rien de ce qui a été révélé ne changera radicalement ma façon de faire du référencement cette année.

En fait, la fuite reflète l’étude de cas que j’ai publiée en 2012 :

  • Créez un contenu de qualité
  • Faites-en la promotion

Cette étude de cas de 2012 a en fait été inspirée par une vidéo de Matt Cutts publiée il y a 14 ans, en 2010, qui disait en substance : «

  • Faites quelque chose d’original, d’unique ou de différent
  • Créez un contenu utile à la communauté
  • Répondez à des questions courantes dans votre créneau
  • Publiez des recherches originales
  • Créez des vidéos
  • Publiez des guides pratiques et des tutoriels
  • Créez des listes de ressources utiles

Il est étrange de constater que les conseils de Matt Cutts sont toujours d’actualité et, sans doute, plus que jamais.

Source originale de l’article: 22 things we might have learned from the Google search leak

Nouveautés

Développeur logiciel software – Marché et évolutions métiers

Développeur logiciel software – Marché et évolutions métiers

Aux nombreuses dénominations métier, développeur informatique logiciel, Ingénieur développement logiciel, programmeur informatique logiciel ou encore « Software developer » (en anglais), le développeur logiciel est un candidat très recherché par les Entreprises de...

Qu’est qu’une Prop Firm ? Le guide du débutant

Qu’est qu’une Prop Firm ? Le guide du débutant

Le trading pour compte propre offre aux traders un moyen intéressant de participer aux mouvements du marché. Comment ? En utilisant les ressources fournies par l'entreprise. Avec l'essor du Prop Trading moderne, les individus explorent désormais ces opportunités en...

Proposer un projet IT et recruter un freelance  : les bonnes options

Proposer un projet IT et recruter un freelance : les bonnes options

Face à un marché des services informatiques assez tendu en termes de métiers induit par une transformation numérique et technique constante et une concurrence toujours plus accrue, les entreprises doivent redoubler de professionnalisme dans le recrutement des...

Appel à l’action (CTA) : Le guide des meilleures pratiques

Appel à l’action (CTA) : Le guide des meilleures pratiques

Les boutons d'appel à l'action (CTA) sont les guides de vos visiteurs qui les aident à atteindre un objectif et contribuent aux taux de conversion. Tous ceux qui ont essayé les tests A/B savent ce qu'un bon bouton d'appel à l'action peut faire pour leurs taux de...

Les outils IA les plus populaires pour gagner en productivité au travail

Les outils IA les plus populaires pour gagner en productivité au travail

L'intelligence artificielle, par l'intermédiaire du deep learning et du machine learning, est déjà présente depuis un bon moment dans de nombreux aspects du quotidien des entreprises, des freelances et autres utilisateurs. Réponse et véritable opportunité pour gagner...

Etude : Comment l’IA métamorphose l’activité des freelances ?

Etude : Comment l’IA métamorphose l’activité des freelances ?

Face à la fulgurante croissance de l’IA dans le monde du travail, FIverr International a souhaité en savoir plus sur l’utilisation de l’IA en France tant par les entreprises et leurs salariés que les travailleurs indépendants. Cette enquête a été réalisée en ligne par...

Créer une page de vente qui convertit : 10 étapes faciles à suivre

Créer une page de vente qui convertit : 10 étapes faciles à suivre

Comment créer une page de vente qui fait vendre ? C'est simple. Les clients se placent eux-mêmes (leur famille, leurs amis, etc.) en premier lorsqu'ils prennent des décisions d'achat. C'est pourquoi la page de vente idéale met véritablement les clients au premier...

Partie 2 : Guide et fiche metiers : pilotage de projets en gestion IT

Partie 2 : Guide et fiche metiers : pilotage de projets en gestion IT

La GEN, grande école du numérique française a classé les professions informatique par familles, afin de montrer les différents domaines métiers dont le besoin en main-d’œuvre est important : communication marketing et gestion digitale, Data et IA, développement test...

Lire aussi