Comment fonctionne le moteur de recherche Google ?

11 Déc 2018 | Référencement | 0 commentaires

Temps de lecture estimé : 3 minutes

Les moteurs de recherche sont devenus aujourd’hui clairement incontournables.

On les utilise chaque jour sans vraiment trop comprendre comment ils fonctionnent. Les moteurs de recherche sont des applications algorithmiques qui récupèrent des données dans leur base ou index, et les affichent à l’utilisateur dans un ordre bien défini.

Mise au point sur le fonctionnement de la recherche Google.

L’indexation des pages web

Sur Internet, le robot d’indexation ou crawler scanne le web afin de rassembler des informations, qu’il classe ensuite dans sa base de données. Cette fonction que l’on pourrait qualifier de «rampante» lui vaut donc la dénomination de «web spider» ou encore «araignée du web».

Le web spider sillonne les différents liens des pages web exactement comme une araignée suit les fils de sa toile. Son but principal est de récupérer les pages de ces liens afin de les ajouter dans son index pour une exploration immédiate ou ultérieure.

Compte tenu du rôle déterminant de ces web spiders pour le classement des sites, les référenceurs doivent leur simplifier la tâche au maximum. Cela passe par exemple par  exemple par l’exclusion des pages ou dossiers faiblement pertinents dans la base de données d’un moteur de recherche.

Pour ce faire, le référenceur doit lui indiquer de ne pas tenir compte des fichiers robots.txt par la mention d’une balise meta robots en noindex. 

Par ailleurs, chaque expert SEO doit trouver et appliquer des techniques de référencement pour simplifier le travail du robot lors de l’indexation des pages.

Le classement des données

Comment Google classe-t-il les données par points et par pertinence ? C’est assez simple en réalité.

Le classement par « points »

Le crawler commence par analyser le contenu d’une page après l’avoir récupérée. C’est ce processus qui détermine alors le classement de cette dernière. À ce moment, le robot peut détecter un texte dupliqué dans votre site ou faire une rétrospective de ce dernier pour voir s’il l’avait approuvé ou pas par le passé. 

De même, c’est lors de cette analyse que le robot juge la vitesse de chargement d’une page ou d’un site. Si le vôtre se charge lentement, il consomme beaucoup de ressources et cela vous vaut des points en moins.

En revanche, une page qui se charge rapidement est non seulement favorable pour l’expérience utilisateur de l’internaute, mais aussi pour la «note» du moteur de recherche.

Le classement par pertinence

La pertinence est une notion thématique et historique qui revient très souvent dans le référencement naturel. En réalité, pour satisfaire les demandeurs, il faut que les résultats de leur requête soient déjà totalement ou partiellement disponibles au moment de sa soumission.

Le classement des sites web est assez complexe. L’internaute devrait donc faciliter le travail au web spider, en étant très précis dans sa requête.

Les fameux mots clés ou keywords

On entend par «requête» la formulation d’un ou plusieurs mots en expression clé. De ce fait, ce mot clé est la matière première qu’utilise l’algorithme de Google pour associer l’information recherchée et les meilleurs documents de sa banque de résultats. 

Actuellement, les moteurs de recherche sont de plus en plus précis. Par conséquent, le bourrage de mots clés (keyword stuffing) ou l’accumulation des mots-clés n’a plus sa place. 

Cette technique peut valoir à votre page ou site une sanction de la part de Google, depuis la mise à jour de Panda et Pingouin. Cette pratique fait partie de ce que Google identifie comme du black hat SEO.

Les résultats dans la Search Engine Result Page (SERP)

Google utilise plusieurs techniques et critères pour savoir si un utilisateur a apprécié ou pas le résultat proposé comme le fameux taux de rebond ou Bounce Rate.

Google se sert également du pogosticking pour analyser le comportement des internautes dans les SERP.

Dans le langage des robots chercheurs, c’est le fait de revenir sur la page des résultats proposés par la crawler après avoir cliqué sur un site. Cela peut se faire soit en allant sur la page précédente depuis le site, soit en relançant la recherche une fois de plus ou de bien d’autres manières. 

De ce fait, cela pourrait signifier que le site ouvert manque de pertinence par rapport à la requête soumise au robot. 

 

Articles publiés récemment

Share This