Google révèle comment ils actualisent et actualisent les recherches

Dernière mise à jour le

Google révèle comment ils actualisent et actualisent les recherches

Public Liaison for Search, Danny Sullivan, a récemment publié un article expliquant le processus de mise en œuvre des modifications apportées aux algorithmes Google. Fournir une vue d'ensemble détaillée de la manière dont les modifications sont reflétées dans la recherche nous permet de mieux comprendre comment ces mises à jour sont déployées pour chaque requête.

De plus, cela résume assez bien le fonctionnement de Google en tant que vaisseau d’information pour les utilisateurs, alors que Sullivan étend son article à une analyse plus approfondie des fonctionnalités du SERP, telles que le graphe de connaissances, les extraits et les fonctions prédictives.

«Nos algorithmes de recherche sont traités avec des équations mathématiques complexes qui reposent sur de nombreuses variables. L'année dernière, nous avons apporté plus de 3 200 modifications à nos systèmes de recherche», selon Danny Sullivan. Les mises à jour régulières utilisées par le moteur de recherche pour afficher des résultats pertinents et utiles sur le Web sont effectuées avec une évaluation optimale et précise.

Pour les référenceurs, il est important de travailler avec Google et non contre eux. Je crois que la tactique la plus utile du SEO pour le référencement consiste à suivre les directives du moteur de recherche concernant ses processus et ses algorithmes. Il s’agit d’un excellent aperçu de leur processus d’affichage des résultats de la recherche et de la manière dont ils gèrent les problèmes potentiels liés aux fonctionnalités de SERP. Comment Google rend-il la recherche utile et pertinente? En voir plus ci-dessous:

Utilisation de formats uniques

extrait sélectionné

Les gens peuvent être visuels par nature. C'est pourquoi cela leur est très utile s'ils rencontrent un résultat de moteur de recherche sous la forme d'extraits. Comme vous le savez peut-être, des extraits de code, ou aussi connus sous le nom de «Rank Zero», déterminent qu’une page Web donnée respecte les normes de Google en termes de qualité et de crédibilité. Apparaître comme un extrait vedette est le signe d’une page Web puissante susceptible d’être affichée dans ce format unique si elle a subi le meilleur référencement.

Danny Sullivan réitère qu’ils interdisent les extraits qui risquent de violer leurs politiques telles que nuisibles, violents, haineux, sexuellement explicites ou tout contenu dépourvu de toute autorité experte en matière d’intérêt public.

Ils n'ont pas mentionné une implémentation particulière qui place une page dans la position de Rank Zero, mais ils ont précisé que la suppression d'un extrait de code sélectionné n'est possible que si elle enfreint les règles. Il est donc prudent de dire que tant que votre contenu est suffisamment pertinent pour servir le grand public, vous êtes prêt à partir.

Fournir des informations factuelles et pertinentes

La recherche Google vise à refléter les faits que les internautes recherchent facilement sur le Web. Peu importe qui, quoi ou où, le but de leurs implémentations algorithmiques est de fournir des réponses qui soutiendront les requêtes que les utilisateurs saisiront chaque jour. Le graphe de connaissances leur permet de connecter automatiquement les attributs de ces informations à des bases de données structurées, des données de licences et d’autres sources d’information.

Les modifications apportées au graphique de connaissances sont rares car il est utilisé pour afficher des résultats factuels et correctement présentés. L'un des processus que Sullivan explique dans son article est l'utilisation de la vérification manuelle et des commentaires des utilisateurs. La mise à jour des informations en cas d'erreur est effectuée manuellement, en particulier si leurs systèmes ne l'ont pas corrigée automatiquement.

Les graphiques de connaissances peuvent sembler aussi simples que cela:

graphe de connaissances

Ou bien, il peut être affiché comme un panneau de connaissances complet avec une collection des réponses les plus viables à votre requête:

panel de connaissances2

Google donne également aux personnes et aux organisations la liberté de modifier leurs panneaux de connaissances à leur guise. Ce processus garantit le maintien de l’autorité de contenu et la recherche de l’exactitude dans la représentation des personnes, des lieux, des éléments ou des services. En outre, Google dispose d'outils et de développements spécifiquement dédiés à la correction des erreurs dans Knowledge Graphs et d'autres fonctionnalités SERP.

Maintenir une approche personnelle de la recherche

caractéristiques prédictives

Les textes prédictifs sont partout et il s’agit de la forme d’intelligence artificielle la plus proche et la plus fondamentale que nous puissions rencontrer dans le monde numérique. En termes simples, les fonctionnalités prédictives aident les utilisateurs à naviguer plus rapidement dans les recherches. Les recherches courantes aident à élargir la portée de la rubrique, ce qui s'avérera très utile pour l'expérience utilisateur et la recherche d'informations. La section de la recherche intitulée "Les personnes recherchent également" aidera les utilisateurs à naviguer vers d'autres rubriques en rapport avec ce qu'ils recherchent en premier lieu.

les gens recherchent aussi

Google maintient la fraîcheur de la fonctionnalité prédictive en veillant à ce que les recherches associées n’ont pas d’impact négatif sur les groupes, ce qui est également appliqué aux résultats qui peuvent être choquants pour les utilisateurs. Les prédictions possibles qui ne sont pas incluses dans cette fonctionnalité peuvent constituer un contenu ne respectant pas les règles, soit parce qu'il est signalé et enfreint la stratégie, soit parce que le système l'a détecté en tant que tel.

Classement du contenu par pertinence et par autorité

résultats organiques

Les fonctionnalités de SERP sont excellentes, mais vous ne pouvez pas nier que le résultat naturel est l’endroit le plus convoité dans les pages de résultats de recherche. Bien que les fonctionnalités soient suffisamment utiles, les listes organiques maintiennent les utilisateurs connectés au moteur de recherche. Les «liens bleus» sont la pierre angulaire des moteurs de recherche, des entreprises et des organisations de référencement.

Le classement des résultats est un processus automatisé. Il parcourt une centaine de milliards de pages indexées par Google lors de l'exploration du Web et il est organisé en fonction de la pertinence des mots clés que vous utilisez.

Bien que les facteurs de classement de Google puissent être assez flous, cet article récemment publié précise clairement une chose: ils ne suppriment ni ne réordonnent manuellement les résultats organiques de la page du moteur de recherche. Le moteur de recherche n'intervient pas manuellement sur une requête de recherche particulière afin de «résoudre les problèmes de classement».

Il s’agit là d’une déclaration audacieuse compte tenu du fait que de nombreuses personnes venant pour Google pensent qu’elles ont un certain parti pris dans les domaines qu’elle place parmi les produits biologiques.

Éliminer le spam dans les recherches

La protection anti-spam est essentielle, en particulier si le contenu ne respecte pas les recommandations de longue date de Google pour les webmasters. Cela ne se limite pas au spam, car il peut également couvrir les violations liées aux logiciels malveillants et aux sites dangereux. Les systèmes de protection anti-spam du moteur de recherche sont automatisés pour empêcher l’inclusion de ces types de contenu dans le système de classement. Cela s'applique également aux liens qui sont trop spammés pour leur propre bien.

Si les SEO qui pensent que l'utilisation de la tactique du chapeau noir leur sont favorables, ils devront réfléchir à nouveau car Google voit ces types. Les actions manuelles sont en ordre si le système automatisé ne parvient pas à détecter ces contenus dangereux. Il est également précisé que cela ne vise pas un résultat de recherche ou une requête en particulier, mais qu'il s'applique à tout le contenu général que les utilisateurs peuvent trouver dans les SERP.

Respect des politiques légales

Les pages de recherche ont pour objectif de diffuser des informations et de fournir une voie de navigation sécurisée à tous. Malheureusement, l'accès étendu à l'information signifie également que ces contenus constituent des attaques vulnérables non sécurisées, telles que des images d'abus commis sur des enfants et des actions en violation du droit d'auteur. Ces cas ne respectent pas l’objectif de Google, qui est d’être un mélange d’informations, dans la mesure où il protège les personnes contre ces contenus sensibles.

La conformité et l’application légales de Google constituent son engagement public à assurer la sécurité des personnes afin de les aider à s’efforcer de rendre les résultats de recherche et les fonctionnalités utiles pour tous.

Clé à emporter

La transparence de Google dans la manière dont ses processus y aboutissent est un avantage pour les référenceurs. Cela nous aidera à élaborer des stratégies éthiques avec ce type d’informations à garder à l’esprit. L’optimisation des sites n’est pas censée être un travail de nuit. Il y a beaucoup de travail derrière les stratégies, les applications et la recherche, ce qui signifie qu'il est impossible de prétendre au scandale que votre site peut être classé en seulement 24 heures.

Même chose avec Google, ils travaillent dur pour concevoir ces fonctionnalités et pour surveiller au mieux les pages des moteurs de recherche. Plutôt que de faire de Google un ennemi, pourquoi ne pas être son allié pour fournir aux utilisateurs le contenu le plus pertinent et la meilleure expérience? Lire l'article complet ici.

Pensez-vous que Google doit travailler sur plusieurs domaines? Commentaire en bas!