Parce que les nouvelles pages flottent dans les SERPs de Google

Il y a presque un an Matt Southern a publié un article sur les fluctuations du classement pour le nouveau contenu John Mueller tout confirmé mais ce qui restait non dit était la raison pour laquelle le nouveau contenu flottait.

Si Google opère sur une mise à jour continue, pourquoi y a-t-il des fluctuations?

Comme nous l'avons dit, John Mueller a immédiatement confirmé que le nouveau contenu rebondissait dans les résultats de la recherche avant de s'installer définitivement et peut-être qu'aujourd'hui nous savons aussi pourquoi.

Nous rapportons une analyse intéressante faite par Roger Montti sur searchenginejournal.com (lien au bas de la page) qui part de ce que le consultant en référencement pouvait lire dans un article publié sur un groupe privé sur Facebook, où il était demandé pourquoi les nouvelles pages oscillaient.

Les raisons possibles offertes étaient les suivantes:

Métrique utilisateur
Un score PageRank temporaire qui est ensuite mis à jour
Cliquez sur la liste pour voir la pertinence de la page.

Ce sont certainement de bonnes suggestions sur les raisons pour lesquelles le classement des nouvelles pages est si flottant, tellement qu'il en existe un. brevet déposé par Google appelé "Modification du classement des résultats de la recherche en fonction des commentaires implicites de l'utilisateur".

Cette traduction pourrait s’expliquer par un jeu de mots: modifiez le résultat des résultats de la recherche en fonction du retour implicite de l’utilisateur, c’est-à-dire que le brevet décrit la surveillance des clics sur une page Web et lorsque vous ne cliquez pas sur une page Web dans les pages. résultats du moteur de recherche (SERP).

Rappelons-nous toujours que la plupart des documents, voire tous, impliquant le CTR visent à améliorer les résultats de recherche et à prévoir les taux de clics.

En fait, le document indique que "… identifie les sélections de l'utilisateur (clics) des résultats individuels du document et identifie même lorsque l'utilisateur revient à la page des résultats, indiquant ainsi le temps passé par l'utilisateur à afficher le résultat du document sélectionné. "

Système d'indexation Google

Selon Roger Montti, la réponse devrait être liée à la manière dont Google stocke les données. L'index de Google est mis à jour en permanence depuis Mise à jour de la caféine. En 2010, le logiciel derrière le stockage de toutes les données de Google s'appelait BigTable et le système de fichiers Google s'appelait colosse.

Quand on parle d'indexation, on parle de caféine et du système percolateur. Dans un document PDF, Google explique le fonctionnement de Percolator en expliquant également les compromis entre l'ancien système de fichiers Google utilisé. MapReduce et le nouveau système de fichiers distribué qui effectue les calculs en parallèle.

Dans son article, Roger Montti détaille systématiquement l’ensemble du processus de traitement des données (nous recommandons à tous ceux qui souhaitent approfondir le sujet de lire l’article en entier dans la langue originale) en citant à plusieurs reprises le document de 2010 au-dessus indique que Google a "choisi une architecture qui évolue de manière linéaire pour de nombreux ordres de grandeur sur les machines classiques, mais nous avons vu que cela coûte 30 fois plus de temps système que les architectures de base de données traditionnelles (…)".

Extrêmement synthétisé, Google, dans son système d’indexation appelé MapReduce, charge les documents numérisés dans Percolator en exécutant transaction de chargeur l'activation de la transaction du processeur de document pour indexer le document (analyse, liens d'extraction, etc.). La transaction de traitement de document active des transactions supplémentaires telles que la mise en cluster. La transaction de clustering, à son tour, déclenche des transactions pour exporter les clusters de documents modifiés dans le système de services.

C’est pourquoi il serait peut-être plus correct de parler d’un réélaboration périodique plutôt que de traiter une page ou un domaine chaque fois qu'un lien est découvert.

Et c’est précisément cette chaîne d’opérations complexe qui conduit à la fluctuation de nouvelles pages qui a besoin de temps pour pouvoir s’installer dans le SERP.

Algorithme de graphe de lien

Roger Montti poursuit son analyse très intéressante en expliquant que, selon lui, la raison pour laquelle nous parlons de classer les fluctuations d'un nouveau contenu pourrait être due à la manière dont le système d'indexation fonctionne. classement des liens de Google.

Comment les graphiques de liens sont générés et maintenus

Le graphe de lien est une carte d'Internet. Chaque fois qu'un nouveau lien est créé ou qu'une nouvelle page est publiée, le graphe de lien change.

Selon un Brevet Google de 2009, un moyen d’effectuer efficacement le calcul du classement des liens consiste à diviser le graphique en fragments appelés tesson qui travaillent en parallèle, c'est-à-dire en même temps, comme pour dire que l'on va casser un problème en plusieurs parties pour le distribuer à une foule de gens qui travaillent à leur tour sur leur petit morceau du projet et, finalement, le rendent au propriétaire pour le remettre ensemble.

Le brevet de 2009 stipule que "attribue chacun des fragments à un serveur respectif, y compris l'affectation de données décrivant les liens associés aux multiples ressources Web représentées par la partie du graphe correspondant au fragment attribué au serveur" en calculant en parallèle ce que nous avons dit plus haut. .

En parcourant l’ensemble du document, le brevet décrit comment le robot d'indexation Il analyse Internet et stocke des informations dans les centres de données, ce qui nous fait comprendre que le moteur responsable de l'indexation et du classement divise l'index en fragments. À ce stade, tout est classé sur une base continue.

Point de contrôle et heure

Chaque fragment crée indépendamment un point de contrôle entre son statut actuel et la mise à jour. Ce qui est intéressant, c’est qu’il est décrit comme asynchrone, où les calculs sont effectués indépendamment, à des intervalles aléatoires, à tout moment, ce qui signifie que vous devez attendre que quelque chose se termine avant de pouvoir lancer la mise à jour ou le traitement.

Chaque fragment met à jour et recalcule sa section Internet en fonction de son temps en utilisant un RAM pour stocker des données.

Le brevet mentionne la RAM et les temps du classement de page Web recalculé en déclarant qu '"une fois une certaine taille atteinte, elle est vidée sur un fichier sur un disque (…) Si la vidange se produit trop rarement ou trop lentement, le tableau feuille atteindre la taille maximale autorisée, ce qui empêche le serveur de traiter les mises à jour entrantes afin de ne pas manquer de mémoire. La taille de la table feuille est un compromis entre la consommation de mémoire et la quantité de données écrites sur le disque. Plus la table est grande, plus les chances de mettre à jour une entrée de mémoire existante avant de télécharger sur le disque (espace disque feuille) sont grandes ".

Donc, le jeu devrait être fait. Les temps pourraient trouver une corrélation avec l'optimisation de l'utilisation de la RAM afin qu'elle ne soit pas surchargée. Il est possible que, pour un site constamment mis à jour et que des liens soient constamment ajoutés, le temps requis pour le positionnement soit plus rapide.

Parce que les nouvelles pages rebondissent dans les résultats de recherche

Comme nous l'avons vu, la réponse à une question apparemment simple, telle que "Pourquoi les nouvelles pages fluctuent-elles dans les résultats de recherche Google", peut s'avérer extrêmement complexe.

Il est facile de lancer des hypothèses aléatoires car Google suit les clics et les indicateurs de satisfaction des utilisateurs. Mais il n’existe aucune preuve scientifique ni aucun brevet publié par Google permettant d’affirmer qu’il s’agit de clics de suivi de Google.

John Mueller a simplement déclaré que les nouvelles pages sont soumises à des fluctuations extrêmes (comme indiqué dans le lien au début de cet article). Comme je l'ai expliqué dans cet article, les raisons peuvent être nombreuses. J'ai souligné plusieurs de ces raisons.

[via searchenginejournal.com]

Note

Cliquez un nb d’étoiles pour noter

Note moyenne 0 / 5. Nb de votes 0

Aucun vote pour l'instant! Soyez le premier à noter ce post.

fr_FRFrench
fr_FRFrench