LE SEO

L’optimisation pour les moteurs de recherche est la traduction Française de Search Engine Optimization, aussi connue sous le sigle de SEO. Cette pratique implique un large éventail de techniques qui permettent d’améliorer le positionnement et la visibilité d’une page web ou d’une application sur les pages de résultats de recherches des moteurs de recherche (en anglais, Search Engine Results Page ou plus simplement SERP).

Pour arriver à ce résultat, les techniques employés s’appliquent à aider les moteurs de recherche à mieux analyser et traiter le contenu au sein des pages qu’ils visitent grâce aux bots sans que cela n’interfère avec leurs algorithmes.

On considère qu’une url est bien positionnée lorsque celle-ci est classée sur la première page de résultats de recherche des moteurs de recherche une fois qu’un internaute ait exprimé un besoin informationnel à partir d’une expression de recherche. Cette même url obtiendra alors plus ou moins de visibilité si elle est en bas, au milieu ou en haut de la première page de résultats de recherche.

L’intention du SEO est de favoriser les résultats de recherches organiques. Il n’est pas à confondre avec le référencement payant, connu sous le sigle anglophone SEA pour Search Engine Advertising, qui offre la possibilité d’être visible grâce à de la publicité.

Histoire du SEO

Le référencement naturel tire son origine du domaine de la recherche d’information (RI) dont l’objectif est d’étudier la manière de retrouver des informations dans un corpus composé de documents d’une ou plusieurs bases de données, qui sont décrits par un contenu ou les métadonnées (une métadonnée est une donnée qui donne une information à propos d’une autre donnée et est inhérente au web sémantique) associées.

La recherche d’information qui tire elle-même son origine des sciences de l’information et des bibliothèques (SIB) a pour but la représentation de documents pour en récupérer des informations à partir d’un index. Grâce à l’évolution des ordinateurs, la représentation des documents et le traitement de leurs données a pu se faire de plus en plus rapidement, jusqu’à se faire en même temps que leur indexation.

De nombreuses techniques ont vu le jour pour parfaire la recherche d’information mais certains modèles restent des références et sont toujours utilisés par les moteurs de recherche. On peut citer :

  • Le modèle booléen
  • Le modèle vectoriel
  • Le modèle probabiliste

Il faudra attendre janvier 1994 pour que le premier moteur de recherche, Yahoo, fasse son apparition. Création de Jerry Yang et David Filo, Yahoo est d’abord vu comme un annuaire web servant à classer des sites par thème qui vise à répondre à l’absence de structure du web de l’époque où les sites internet fleurissent mais ne sont pas organisés.

S’en suit l’apparition de nombreux autres moteurs de recherches dont le principe restait de classer les sites internet par thématique. Citons Altavista, Lycos ou encore Excite.

C’est en 1998 qu’apparaît Google, un autre moteur de recherche gratuit et libre d’accès créé par Larry Page et Sergueï Brin. Un nouveau moteur de recherche qui ne fonctionnait plus sur les mêmes bases algorithmiques que ses concurrents de l’époque. A l’instar des Yahoo, Lycos ou encore Altavista, Google ne reprenait pas la logique de classement des sites internet par thématiques mais par popularité grâce à son algorithme PageRank.

Le principe du PageRank est basé sur un score (une valeur) de popularité attribué à une page selon le nombre de fois où celle-ci est parcouru depuis les liens hypertext provenant d’autres pages web. Ainsi plus une page web est pointée par d’autres pages web à l’aide de liens plus son score de popularité, son PageRank, est élevé et mieux elle est classée dans les pages de résultat de recherche de Google. Le SEO est apparu à la même époque que ces deux géants du web car il était très facile de manipuler leurs algorithmes.

Les enjeux du SEO

L’optimisation pour les moteurs de recherche présente plusieurs enjeux pour les entreprises ou les personnes :

  • Favoriser de manière pérenne la visibilité d’un site internet ;
  • Générer du trafic depuis les moteurs de recherche ;
  • Augmenter le chiffre d’affaires ou le volume de contacts ;
  • Construire et entretenir une image de marque ;
  • Aider au recrutement ;
  • Enrichir les connaissances ;
  • Techniques d’optimisation pour les moteurs de recherche

L’optimisation pour les moteurs de recherche est une tâche compliquée car les moteurs de recherche comme Google utilisent plus de 200 critères pour évaluer la pertinence d’une page web. Les moteurs de recherche utilisent pour cela une myriade d’algorithmes dont certains peuvent pénaliser les pages ayant été sur-optimisées. Tout le travail des consultants en référencement est d’être fins observateurs sur les évolutions algorithmiques des moteurs de recherche afin de trouver le bon équilibre dans leurs actions d’optimisation.

Bien qu’il existe de nombreux facteurs impactant le traitement de l’information des pages et leur classement, certains ont plus de poids que d’autres. Les référenceurs sont généralement au courant de ces facteurs principaux et sont à même d’optimiser des pages web pour favoriser leurs positions sur les bons mots-clés.

Elements meta

Parmi ces facteurs différenciant, on peut citer les éléments meta, appelés méta tags en anglais. Ce sont des éléments HTML qui permettent de fournir au moteur de recherche des informations concernant le type de contenu à analyser. Ainsi les balises meta peuvent être utilisées pour représenter le titre d’une page, sa description, les sous-titres d’un texte, le nom d’une image. Elles peuvent aussi indiquer au moteur de recherche qu’une page est autorisée ou interdite à l’indexation ou autorisée ou interdite au crawl via le nofollow.

Liens

Les liens hypertext restent un facteur différenciant dans l’optimisation d’une page web pour les moteurs de recherche. Il s’agit d’une technique qui requiert une grande compréhension d’un domaine afin de définir les éléments clés et leurs similitudes.

Pour favoriser le classement d’une page selon le PageRank de Google, celle-ci doit obtenir plusieurs liens depuis d’autres pages partageant si possible la même thématique et ayant également une sémantique commune.

Entités nommées

Les entités ou entités nommées sont des expressions linguistiques singulières et identifiables qui sont très souvent représentées par des noms propres. Les entités sont des choses physiques ou abstraites qui peuvent prendre la forme de personnes, de lieux, de dates, d’idées et concepts et qui dans un texte peuvent être sujet ou objet.

Une entité dispose de plusieurs attributs ou propriétés ayant une valeur propre. Il arrive que des attributs d’entités soit aussi des entités avec leurs propres propriétés.

Elles peuvent être objet de traitements à divers degrés (détection, extraction, reconnaissance, liaison) et nécessitent d’importantes ressources (par exemple des bases lexicales). Elles sont l’objet d’une tâche du traitement automatique du langage naturel appelée reconnaissance d’entités nommées.

Les entités nommées sont très importantes dans l’optimisation pour les moteurs de recherche car elles font partie du domaine de la recherche sémantique. La recherche sémantique consiste à améliorer la précision et la pertinence des résultats de la recherche d’information en renforçant la compréhension et la signification contextuelle d’entités.

Les façons de faire du référencement

White hat/Black hat

Le référencement naturel peut se pratiquer de deux façons, soit en respectant les guidelines de Google, on appelle cela le SEO white hat, soit en les contournant, on appelle cela le SEO black hat. Bien que les techniques black-hat ne soient pas sanctionnées par la loi, elles peuvent l’être fortement par le moteur de recherche qui va déclasser les pages web utilisant ces techniques pour favoriser leur positionnement.

Certaines techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du netlinking aussi appelé linkbuilding, c’est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « lien retour».

Certaines techniques black hat vise à faire du Google hacking, du spamdexing ou à créer en masse de contenu alimentant les chances de contenu dupliqué (qui peut être solutionné en utilisant l’élément de lien canonique) acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l’arrière-plan ou en lui donnant un attribut transparent. Néanmoins, Google ne prend maintenant plus en compte ces liens « cachés », et va jusqu’à les pénaliser s’ils n’ont pas été désavoués.

Référencement local

Le référencement local ou SEO local est une pratique particulière qui consiste à favoriser la visibilité web d’un site internet sur une région définie. Le SEO local se prête particulièrement bien aux petits commerçants et artisans. Voici une liste des techniques majeures :

La création d’un profil sur Google My Business qui permet à Google de savoir si une entreprise opère dans l’emplacement physique indiqué, afin de lui donner de meilleures chances d’apparaître dans les résultats de recherche et sur Google Maps. Le référencement sur des annuaires locaux type pages jaunes. L’optimisation des contenus au sein des pages web en ajoutant des attributs locaux.

Social media optimization

Une partie du référencement se fait désormais sur les réseaux sociaux. Cette pratique s’appelle l’optimisation pour les médias sociaux ou référencement social (SMO pour Social media optimization en anglais) et consiste à promouvoir des contenus de sites web sur les différentes plateformes sociales.

Les moteurs de recherche contre les techniques abusives

Les pratiques abusives (en SEO sont nombreuses. Pour les contrer, Google utilise des pénalités. Il existe deux types de pénalités :

  • la pénalité algorithmique : sanction qui fait suite à une mise à jour d’un algorithme
  • la pénalité manuelle : sanction exécutée par un membre de l’équipe web spam de Google.

Google met à jour ses algorithmes plusieurs fois par an afin de contrer les pratiques abusives des référenceurs. Pour cela il s’appuie aussi sur plusieurs algorithmes qui ont fait grand bruit entre 2012 et 2013, Google Panda et Google Penguin.

Google Panda est un algorithme qui pénalise les sites internet dont les contenus sont de très mauvaises qualités. Google Penguin est un algorithme qui pénalise les sites internets créant artificiellement et en masse des backlinks via des fermes de liens – farm link – par exemple.

Métier de référenceur

Le consultant en référencement, aussi appelé référenceur, est un métier très plébiscité ces dernières années. Les compétences requises pour l’optimisation des moteurs de recherche font envie à beaucoup de jeunes dans leur étude mais aussi de professionnels en reconversion ou qui cherchent à approfondir leurs connaissances comme le rédacteur web.

Au-delà des aspects du référencement naturel connus de tous et largement vulgarisés, les compétences d’un bon référenceur tiennent aussi compte de sa capacité à écouter, observer et comprendre un contexte. Il doit être aussi d’un naturel curieux pour être en recherche de nouvelles compétences et de savoirs à utiliser au quotidien.

Il doit aussi être capable d’appréhender des concepts algorithmiques complexes et les vulgariser.

Le référenceur doit aussi savoir manipuler différents outils qui vont lui faire gagner du temps au quotidien dans son analyse des SERP et son travail d’optimisation. On peut citer l’outil gratuit Google Search Console comme principal avantage technique