Après avoir couvert en long, en large et en travers tous les aspects du SEO « classique », de la technique au contenu en passant par les liens, il est temps de se tourner vers l’avenir. Car le référencement naturel est tout sauf un long fleuve tranquille : c’est un domaine en perpétuelle ébullition, façonné par les évolutions technologiques, les nouveaux usages et les orientations des moteurs de recherche.
Pour espérer tirer son épingle du jeu sur le long terme, il ne suffit donc pas d’appliquer les bonnes pratiques d’aujourd’hui. Il faut aussi (et surtout) anticiper celles de demain, en gardant un œil sur les tendances émergentes et les signaux faibles qui dessinent le SEO du futur. Un véritable travail de veille et de prospective, qui nécessite de sortir de sa zone de confort pour explorer de nouveaux territoires.
C’est tout l’objet de ce chapitre : vous donner des clés pour décrypter les grandes mutations du Search et vous aider à faire évoluer vos stratégies en conséquence. Au menu, un tour d’horizon complet des tendances les plus structurantes du moment, de l’essor de la recherche vocale à l’impact grandissant de l’intelligence artificielle, en passant par la montée en puissance des facteurs UX ou encore l’émergence du SEO prédictif.
Chaque tendance sera analysée en profondeur, avec à la clé des explications sur :
- Les fondamentaux : de quoi s’agit-il exactement ? Quels sont les concepts et les technologies clés à maîtriser ?
- Les cas d’usage : comment cette tendance se matérialise-t-elle concrètement dans les SERPs ? Avec quels bénéfices pour les internautes ?
- Les bonnes pratiques : quelles sont les techniques et les approches SEO les plus adaptées pour en tirer parti ? Comment optimiser ses pages et ses contenus en conséquence ?
- Les outils et ressources : quels logiciels, extensions ou sources d’information peuvent vous aider à appréhender cette nouvelle donne ?
L’idée n’est pas de vous noyer sous un flot de buzzwords et de concepts fumeux, mais bien de vous donner des repères pragmatiques pour aborder le SEO de demain. Car au-delà des effets de mode, ces évolutions de fond vont durablement transformer notre façon de concevoir et de pratiquer le référencement naturel. Mieux vaut donc les comprendre et les intégrer dès maintenant !
Évidemment, difficile d’être exhaustif sur un sujet aussi vaste et mouvant. Le but ici est surtout de vous sensibiliser aux grandes dynamiques en cours et à leurs implications concrètes en termes de SEO. Charge ensuite à vous de creuser les aspects les plus stratégiques pour votre activité et de les décliner dans votre feuille de route.
Alors, prêt à plonger dans le grand bain du SEO de demain ? On attaque sans plus attendre avec LA tendance la plus disruptive du moment : l’essor fulgurant de la recherche vocale !
9.1. La recherche vocale
S’il ne fallait retenir qu’une seule « mega trend » Search de ces dernières années, ce serait sans nul doute celle-là : la démocratisation à grande vitesse de la recherche vocale. Dopées par les progrès de la reconnaissance de la parole et la multiplication des assistants vocaux, les requêtes « à la voix » connaissent en effet une croissance exponentielle depuis le début des années 2010. Au point de représenter aujourd’hui près de 20% des recherches sur Google !
Un vrai séisme pour le SEO, qui voit soudain une part significative de son trafic échapper aux traditionnels « liens bleus » pour atterrir directement dans des interfaces vocales type Google Assistant, Siri ou Alexa. Avec à la clé, de nouveaux codes, de nouveaux formats et de nouvelles opportunités de visibilité pour les marques et les éditeurs. Explications.
9.1.1. Les fondamentaux de la recherche vocale
Commençons par une définition : la recherche vocale, c’est tout simplement le fait d’effectuer une requête sur un moteur de recherche en utilisant sa voix plutôt qu’un clavier. Concrètement, l’utilisateur parle à son téléphone, sa montre, son enceinte connectée… Et le moteur lui renvoie une réponse directement à l’oral, sans passer par une interface graphique classique.
Cette interaction homme-machine repose sur la combinaison de plusieurs briques technologiques :
- La reconnaissance automatique de la parole (RAP) : c’est la capacité du système à transcrire le signal vocal en texte, avec un haut niveau de précision. Les géants du web (Google, Apple, Amazon…) ont fait d’énormes progrès sur ce terrain, avec des taux de reconnaissance supérieurs à 95% dans de bonnes conditions.
- Le traitement automatique du langage naturel (TALN) : une fois la requête transcrite, il faut être capable d’en extraire le sens et l’intention, malgré les ambiguïtés, les accents ou les tournures propres à l’oral. C’est là qu’interviennent les fameux algorithmes de Machine Learning spécialisés dans la compréhension du langage (BERT chez Google, LUIS chez Microsoft…).
- La synthèse vocale : c’est la brique qui permet de générer une réponse audio à partir d’un texte, de la façon la plus naturelle possible. Là encore, les assistants vocaux ont fait d’immenses progrès ces dernières années, avec des voix de plus en plus réalistes et expressives (WaveNet pour Google, VocalID pour Amazon…).
- La personnalisation : pour offrir une expérience fluide et pertinente, les systèmes de recherche vocale s’appuient aussi sur de nombreuses données contextuelles comme la géolocalisation, l’historique de navigation, les préférences de l’utilisateur… De quoi adapter les réponses au profil de chacun.
Combinés, ces différents éléments permettent de créer une interface conversationnelle complète entre l’humain et la machine, avec un fort niveau d’interactivité. Fini les listes de résultats à parcourir : l’utilisateur obtient directement la réponse à sa question, formulée le plus simplement possible à l’oral. Le fameux « One shot answer » !
Cerise sur le gâteau : cette expérience d’un nouveau genre est accessible très facilement, souvent « hands free », via des devices toujours plus nombreux : smartphones bien sûr (Google Assistant, Siri…), mais aussi enceintes connectées (Google Home, Amazon Echo…), TV, montres, voitures et même… réfrigérateurs ou miroirs !
On comprend mieux l’engouement des utilisateurs pour ce nouveau mode d’interaction avec le Search, et la croissance spectaculaire des usages qui en découle. Jugez plutôt :
- 60% des possesseurs de smartphones utilisent régulièrement la recherche vocale (Source : MindMeld)
- 1 recherche sur 5 sur Google est déjà vocale en 2022 (Source : Google)
- 50% du ecommerce se fera via une interface vocale en 2025 (Source : Capgemini)
- 55% des ménages devraient posséder une enceinte connectée en 2025 (Source : Canalys)
Et ce n’est qu’un début : selon les projections les plus optimistes, 50% de TOUTES les recherches pourraient être vocales en 2025-2030 ! De quoi faire de l’ombre au bon vieux clavier, même s’il n’est pas près de disparaître. Car la recherche vocale n’a pas vocation (pour l’instant) à remplacer totalement la recherche textuelle, mais plutôt à la compléter dans certains contextes et usages.
Typiquement, la voix est privilégiée pour des recherches :
- Simples et factuelles, appelant une réponse courte et directe. Exemple : « Quel temps fera-t-il demain ? », « Qui a gagné le match France-Brésil ? », « Combien de calories dans une pomme ? »…
- Locales et mobiles, liées à un besoin immédiat. Exemple : « Restaurants italiens près de moi », « Horaires de la pharmacie de garde », « Prochains départs de TER pour Marseille »…
- Liées à la vie quotidienne et à des tâches chronophages. Exemple : « Mets un minuteur de 10min », « Ajoute des tomates à ma liste de courses », « Appelle maman sur WhatsApp »…
- Dans des situations où l’usage des mains/yeux est difficile (conduite, cuisine, salle de bain…) ou tout simplement par flemme de taper !
La recherche « classique » reste en revanche préférée pour les requêtes complexes, nécessitant d’explorer plusieurs résultats ou de comparer différentes options. C’est notamment le cas en fin de parcours d’achat (comparatifs de produits, avis client…) ou pour des recherches très qualifiées (article scientifique, tutoriel pas à pas…).
Mais les progrès de l’IA conversationnelle font progressivement reculer cette frontière, en permettant des échanges de plus en plus poussés et nuancés avec les assistants vocaux. À terme, on peut imaginer pouvoir dialoguer avec son assistant sur des sujets pointus, un peu comme on le ferait avec un expert humain. Des perspectives vertigineuses pour le SEO !
9.1.2. Les impacts de la recherche vocale sur le SEO
Si la recherche vocale bouleverse à ce point l’expérience utilisateur, elle a aussi (et surtout) des répercussions majeures sur la façon de concevoir et de pratiquer le référencement naturel. Car les interfaces vocales comme Google Assistant ou Alexa ont leurs propres codes, leurs propres critères de pertinence… Et donc leurs propres « bonnes pratiques » SEO !
Pour bien comprendre ces enjeux, il faut revenir aux fondamentaux de la recherche vocale, et notamment à la façon dont les assistants génèrent leurs réponses. Contrairement aux idées reçues, celles-ci ne sortent pas de nulle part, mais sont extraites en grande partie… des pages web !
Plus précisément, lorsqu’un utilisateur pose une question à un assistant vocal, celui-ci va :
- Analyser la requête pour en comprendre le sens et l’intention, grâce au TALN (voir plus haut).
- Aller chercher dans son index (c’est-à-dire sa base de contenus web, la même que pour la recherche textuelle) les pages les plus à même de répondre à cette question.
- Au sein de ces pages, identifier les passages les plus pertinents, en s’appuyant sur des algorithmes de compréhension du langage type BERT.
- Extraire et reformuler ces passage sous forme d’une réponse courte et factuelle, adaptée à une restitution audio (la fameuse « position zéro »).
- Compléter éventuellement avec des éléments « riches » issus des données structurées, du Knowledge Graph ou d’autres sources (Wikipedia, partenaires…)
Vous l’aurez compris : loin d’être déconnectée du web, la recherche vocale s’appuie en grande partie sur des contenus éditoriaux « classiques » pour alimenter ses réponses. D’où l’importance stratégique de se positionner sur ces contenus, pour espérer être restitué vocalement par les assistants !
Mais attention : les critères qui font qu’une page sera jugée pertinente pour une requête vocale ne sont pas exactement les mêmes que pour une requête textuelle. La faute à plusieurs « spécificités » de l’expérience vocale :
- Le format court et factuel des réponses : en vocal, l’utilisateur attend une réponse rapide et concise, qu’il pourra mémoriser facilement. Exit donc les longs passages argumentés ou les listes à puces : on privilégie les informations brutes, chiffrées, sans fioriture.
- L’importance de la question précise posée : plus encore qu’à l’écrit, la recherche vocale doit coller au plus près de la formulation exacte de l’utilisateur, y compris lorsqu’elle est approximative ou hésitante. D’où l’importance du « question/answering » et de la correspondance stricte des mots-clés.
- La dimension conversationnelle : un utilisateur vocal a souvent tendance à enchaîner les questions de précision sur un même sujet, un peu comme il le ferait avec un humain. Les assistants doivent donc être capables de gérer ce fil de discussion et d’y répondre de façon cohérente.
- Le besoin de personnalisation : une recherche vocale est par définition plus « intime » et engageante qu’une recherche classique. L’utilisateur s’attend donc à ce que l’assistant le comprenne et lui réponde de façon adaptée à son profil, ses habitudes, sa géolocalisation…
Autant de facteurs qui viennent bouleverser la donne en termes de ranking vocaux, et rebattre les cartes du référencement ! Car obtenir le précieux sésame de la « position zéro » ne répond pas aux mêmes règles que se classer dans le top 10 des liens bleus. Cela demande d’optimiser ses pages sur des critères en partie différents.
Parmi les bonnes pratiques SEO les plus importantes pour favoriser son « éligibilité » vocale, on peut citer :
- Travailler le format question/réponse : structurer son contenu autour de questions précises et de réponses courtes, factuelles, en adéquation directe. Le moins de « blabla » possible !
- Optimiser pour les mots-clés « conversationnels » : tenir compte des spécificités du langage parlé dans le choix des expressions-clés (tournures familières, phrases incomplètes, enchaînements…).
- Soigner sa sémantique et ses données structurées : utiliser un balisage précis (schema.org, données tabulaires…) pour aider les moteurs à identifier les informations clés à extraire vocalement.
- Proposer des contenus « actionnables » : privilégier les informations concrètes et les conseils pratiques, qui répondent à un besoin immédiat de l’utilisateur (recettes, tutoriels, avis produit…).
- Miser sur les contenus locaux et « du quotidien » : adresses, horaires, météo, actualités locales… Tout ce qui facilite la vie de l’utilisateur mobile au jour le jour.
- Travailler son autorité et sa réputation : plus que jamais, Google et cie s’appuient sur des signaux de confiance « offline » (avis, points d’intérêt, présence sociale…) pour départager les contenus vocaux les plus légitimes.
- Proposer une expérience « fluide » sur tous les devices : temps de chargement ultrarapide, affichage responsive, accessibilité… Tout ce qui favorise une navigation
sans couture, quelle que soit la situation d’usage (smartphone, enceinte connectée, voiture…).
L’enjeu pour les marques et les éditeurs est donc de repenser leur stratégie de contenu en profondeur, pour l’adapter aux codes et aux usages de la recherche vocale. Il ne s’agit pas de faire table rase de son existant, mais de le faire évoluer progressivement vers plus de granularité, d’instantanéité et de conversation.
Un chantier d’ampleur, qui ne se limite pas à l’optimisation SEO, mais touche aussi au ton, au style, à l’architecture de l’information… Et à la façon de penser la relation client dans son ensemble. Car c’est bien de cela qu’il s’agit : construire une vraie relation de proximité et de confiance avec ses utilisateurs, pour devenir leur interlocuteur privilégié au quotidien. La voix n’est qu’un moyen parmi d’autres d’y parvenir !
9.1.3. Les opportunités offertes par la recherche vocale
Au-delà des enjeux « défensifs » (ne pas perdre en visibilité sur un canal en plein boom), la recherche vocale ouvre aussi de formidables opportunités pour les acteurs du web. Nouvelles possibilités d’exposition, nouveaux points de contact, nouveaux leviers de conversion… Les assistants vocaux regorgent de promesses pour qui sait les saisir !
En premier lieu, la voix permet d’accéder à une audience ultra-qualifiée et engagée, dans des moments d’usage inédits. Aujourd’hui, 75% des possesseurs d’enceintes connectées utilisent leur assistant au moins une fois par jour, et plus de la moitié plusieurs fois par jour (étude Loopvoc/CSA). Autant de prises de parole qui sont autant d’occasions d’entrer en contact avec sa cible, de façon fluide et naturelle.
Mieux : en s’intégrant au cœur du quotidien des utilisateurs, dans leur salon, leur cuisine ou leur voiture, la voix permet de créer une proximité et une intimité nouvelles avec sa marque. Une approche « conversationnelle » qui humanise la relation, favorise la mémorisation et in fine… la conversion ! Exemple : « Alexa, commande-moi un Coca ! »
Autres avantages de la recherche vocale :
- Un meilleur taux de clic/d’engagement : lorsqu’un utilisateur vocal obtient une réponse pertinente, il a tendance à interagir beaucoup plus avec (questions de suivi, demande de précisions, clic vers le site…). De quoi doper mécaniquement son taux de conversion.
- Une captation du trafic de marque : grâce à la personnalisation, les assistants vocaux sont souvent « biaisés » en faveur des apps et services déjà utilisés par l’internaute. Une façon de capter du trafic hautement qualifié, déjà dans une logique de fidélité.
- Une « présence » même sans site vocal : un site non optimisé pour la voix peut quand même tirer son épingle du jeu, en apportant la réponse à des questions génériques. À condition de travailler son SEO « classique » : rich snippets, données tabulaires, page autorité…
- Une visibilité potentiellement forte : pour certaines requêtes, Google et cie « forcent » l’affichage de contenus vocaux types « Featured Snippets », y compris quand l’utilisateur est sur desktop. Un bonus de visibilité loin d’être négligeable !
Mais au-delà, la voix ouvre surtout la voie à une multitude de nouveaux « display ads » et points de contact avec sa cible. En utilisant les kits de développement (SDK) des assistants vocaux, il est en effet possible de créer des expériences sur mesure, parfaitement intégrées au flux conversationnel. On parle de « Voice Apps ».
Quelques exemples d’applications possibles :
- Skill Alexa ou Action Google Assistant pour apporter un contenu complémentaire à une requête vocale (ex : recette de cuisine, horoscope, quiz…).
- Jingle publicitaire ou « voice ad » inséré en début/fin de réponse vocale, sur le modèle des « pré-roll » YouTube.
- Recommandation de produits alimentée par un catalogue produits, dans une logique de « voice commerce ».
- Service après-vente et support client intégralement géré par un assistant vocal, y compris pour le suivi de commande, le SAV…
- Expériences ludo-éducatives à destination des enfants : jeux, contes, chansons…
- Dispositif de « brand utility » aidant les utilisateurs au quotidien : aide au réveil, recettes healthy, suivi d’entraînement sportif…
Bref, tout est possible ou presque, pour peu qu’on ait les ressources techniques et éditoriales pour développer ce genre de modules. Un investissement conséquent (surtout les premières années), mais un moyen imparable de se positionner sur le device préféré des utilisateurs, celui qu’ils ont choisi pour se simplifier la vie !
Bien sûr, tout l’enjeu est de trouver le bon équilibre entre utilité, engagement et discrétion, pour ne pas être perçu comme intrusif ou « spammeur ». Comme en SEO classique, la qualité et la pertinence du contenu restent les meilleurs atouts pour s’attirer durablement les faveurs des assistants vocaux… Et de ceux qui les écoutent !
Un dernier usage de la voix, plus prospectif mais très prometteur : le « Voice SEO On-SERP », c’est-à-dire l’optimisation directement dans les résultats de recherche, via des contenus mixtes text-to-speech. Concrètement, il s’agirait pour Google (pour ne citer que lui) d’intégrer des réponses audio directement dans ses SERP web ou mobile, en complément des liens et rich snippets classiques.
Une extension assez naturelle du « Voice SEO », qui permettrait aux sites de se positionner à la fois par l’écrit et par l’oral sur les requêtes les plus stratégiques. Avec à la clé, un nouveau terrain de jeu SEO pour expérimenter des formats toujours plus immersifs et interactifs !
On le voit, les opportunités ouvertes par la recherche vocale sont immenses, pour tous les acteurs du web. Mais elles impliquent un vrai changement de mindset, une capacité à repenser son approche du Search Marketing en profondeur. SEO, content, social, UX… : c’est toute la chaîne de production digitale qui est à réinventer !
Un défi passionnant, qui ne fait que commencer. Car si la voix représente déjà un levier majeur d’acquisition et de fidélisation, elle n’en est encore qu’à ses balbutiements. Avec les progrès constants du Machine Learning et du NLP, on peut parier sur des agents conversationnels toujours plus « intelligents », capables de tenir des conversations de plus en plus naturelles et pertinentes avec les utilisateurs.
De quoi faire de la voix bien plus qu’un « gadget » ou un moteur de recherche bis : une vraie porte d’entrée vers le web, au même titre que les navigateurs ou les apps mobiles. Et donc, un incontournable dans la stratégie digitale de toutes les marques et tous les éditeurs.
Alors, prêt à faire entendre votre voix dans le monde merveilleux du Search ?
9.2. L’impact de l’intelligence artificielle sur le SEO
S’il est un autre phénomène qui bouscule en profondeur le monde du Search, c’est bien la montée en puissance de l’intelligence artificielle (IA). Depuis une dizaine d’années, les progrès spectaculaires du Machine Learning et du Deep Learning ont en effet révolutionné la façon dont les moteurs de recherche comprennent, traitent et restituent l’information.
Avec des répercussions majeures sur les algorithmes de ranking, toujours plus « intelligents » et donc complexes à appréhender pour les experts SEO. Fini le bon vieux PageRank et ses centaines de facteurs ! Place à des systèmes « auto-apprenants », capables d’analyser le sens profond des contenus et d’en évaluer la pertinence de façon quasi-autonome.
Un changement de paradigme qui oblige les référenceurs à revoir leur approche de fond en comble, et à intégrer l’IA au cœur de leurs stratégies d’optimisation. Car dans un monde où les machines « comprennent » de mieux en mieux le langage naturel, le SEO ne peut plus se contenter de ruser avec les mots-clés et les balises. Il doit avant tout produire du contenu de qualité, susceptible de satisfaire pleinement les utilisateurs !
Petit tour d’horizon des principaux impacts de l’IA sur le SEO, et des bonnes pratiques à mettre en œuvre pour en tirer le meilleur parti.
9.2.1. RankBrain, BERT et les autres : les algorithmes IA de Google
Impossible de parler d’intelligence artificielle dans le Search sans évoquer Google, qui est incontestablement le pionnier et le leader dans ce domaine. Depuis le milieu des années 2010, le géant de Mountain View a en effet intégré l’IA au cœur de son système de ranking, via une série d’algorithmes révolutionnaires.
Le premier d’entre eux, et le plus connu, est sans nul doute RankBrain. Lancé en 2015, ce « coprocesseur » utilise le Deep Learning pour mieux comprendre les requêtes des internautes, et leur apporter des réponses toujours plus pertinentes. Son principe : analyser les mots de la requête, mais aussi et surtout leur contexte sémantique, pour en saisir l’intention profonde.
Concrètement, RankBrain va s’appuyer sur des technologies de Natural Language Processing (NLP) pour « décortiquer » chaque requête sous toutes ses coutures :
- Identification des entités nommées : de qui/quoi parle-t-on exactement ?
- Désambiguïsation des termes polysémiques grâce au contexte.
- Détection des synonymes, des périphrases, des tournures « naturelles ».
- Prise en compte des fautes d’orthographe ou des abréviations.
- Analyse des cooccurrences et du champ lexical.
- Etc.
L’idée est de transcender la simple correspondance mot à mot, pour accéder au « sens caché » derrière les mots. Un vrai saut qualitatif par rapport aux algorithmes traditionnels, qui se contentaient de matcher mécaniquement les mots-clés de la requête avec ceux des pages web !
Prenons un exemple. Imaginons la requête « meilleur smartphone pas cher ». Un algorithme « bête et méchant » se contenterait de sortir les pages qui contiennent exactement cette expression, ou à la rigueur des variantes proches. RankBrain, lui, va plutôt raisonner en termes d’intention, de besoin utilisateur. Et comprendre qu’ici, l’internaute recherche :
- Un comparatif (le « meilleur »)
- De téléphones mobiles récents (les « smartphones »)
- A un prix abordable (le fameux « pas cher »)
Charge ensuite à l’algo d’aller chercher les pages les plus à même de répondre à ce besoin, même si elles ne contiennent pas l’expression « meilleur smartphone pas cher ». Par exemple un article intitulé « TOP 10 des téléphones à moins de 300€ », ou encore « Quel smartphone choisir quand on a un petit budget ? ».
C’est toute la force de RankBrain : sa capacité à faire le lien entre des requêtes « différentes » en surface, mais similaires sur le fond. D’extrapoler le besoin de l’utilisateur pour lui apporter la réponse la plus adaptée, au-delà des mots qu’il a saisis. Bref, de rendre les résultats plus « intelligents » et intuitifs !
Un bond en avant majeur pour l’expérience utilisateur, mais aussi un vrai challenge pour les experts SEO. Car avec RankBrain, difficile de « tricher » avec les mots-clés et autres techniques classiques d’optimisation. La seule façon de tirer son épingle du jeu, c’est de produire des contenus « profonds », riches en sens, en diversité lexicale et en valeur ajoutée pour l’utilisateur. Facile à dire…
Et ce n’est qu’un début ! Depuis RankBrain, Google a intégré toujours plus d’IA dans ses algorithmes, avec une accélération notable ces dernières années. On peut notamment citer :
- BERT (2019) : un modèle de Deep Learning encore plus poussé, capable de saisir le contexte d’un mot dans une phrase pour en affiner le sens. Exemple : différencier « je veux un verre d’eau » et « ce vase est en verre », grâce à l’analyse des termes adjacents.
- MUM (2021) : un nouveau « multimodal system » 1000 fois plus puissant que BERT, qui peut comprendre et générer du contenu dans 75 langues différentes ! Avec la promesse de faire le lien entre des informations de sources et de formats très variés (web, images, vidéos…) pour répondre à des requêtes ultra-complexes.
- SMITH (2022) : un outil spécialisé dans l’analyse des contenus longs (>10 pages), pour en extraire les passages les plus pertinents par rapport à une requête. Objectif : identifier les « documents d’autorité » les plus exhaustifs sur un sujet donné.
- Pathways (2022) : un modèle d’IA révolutionnaire, capable de réaliser plus de 100 000 tâches différentes, en transférant les connaissances de l’une à l’autre. Cela ouvre la voie à des agents conversationnels « génériques », pouvant répondre à n’importe quelle question dans n’importe quel domaine !
Autant d’innovations qui dessinent le visage du SEO de demain : toujours plus « intelligent », multiforme et centré sur le besoin utilisateur. Avec à la clé, une forte pression sur les contenus pour être toujours plus riches, diversifiés et « sémantiquement denses ». Un défi de tous les instants pour les créateurs !
9.2.2. Les autres acteurs de l’IA dans le Search
Bien sûr, Google n’est pas le seul à miser sur l’IA pour améliorer son moteur de recherche. Tous ses grands concurrents ont aussi investi massivement dans le Machine Learning et le NLP ces dernières années, avec des résultats plus ou moins convaincants. Petit tour d’horizon des principales initiatives en la matière.
Commençons par Microsoft, qui est sans doute le plus avancé dans ce domaine après Google. Depuis 2016, le géant de Redmond a en effet intégré l’IA au cœur de son moteur Bing, via une série d’algorithmes maison baptisés « AI at Scale ». Ceux-ci s’appuient notamment sur :
- LUIS (Language Understanding Intelligent Service) : un outil de NLP « self-service », qui permet de créer facilement des modèles de compréhension du langage adaptés à un domaine ou une tâche spécifique. Idéal pour les chatbots et autres agents conversationnels !
- Turing NLG (Natural Language Generation) : un modèle de Deep Learning capable de générer du texte « humain », cohérent et fluide, à partir d’une simple amorce. Une technologie impressionnante, qui ouvre la voie à des applications très variées : rédaction automatique d’articles, de résumés, de réponses…
- Bing Entity Search : un « knowledge graph » ultraperformant, qui identifie et relie entre elles des millions d’entités (personnes, lieux, événements…) à partir du web. De quoi enrichir considérablement les résultats de recherche, en proposant des informations complémentaires sur le sujet.
Toutes ces briques sont combinées au sein du moteur Bing pour en améliorer l’expérience utilisateur au quotidien. En 2020, Microsoft revendiquait ainsi plus de 70% de résultats « améliorés par l’IA » (rich snippets, passages mis en avant, suggestions…), contre 50% un an plus tôt. De quoi donner du fil à retordre à Google !
Autre acteur majeur de l’IA dans le Search : Baidu, le Google chinois. Depuis le milieu des années 2010, le géant de Pékin multiplie les investissements dans ce domaine, avec une approche très « mobile-first ». Son fer de lance : l’algorithme ERNIE (Enhanced Representation through kNowledge IntEgration), un modèle de Deep Learning ultraperformant pour la compréhension du langage naturel et le traitement des images.
Grâce à ERNIE, Baidu est notamment capable de proposer :
- Des résumés automatiques d’articles ou de vidéos, avec mise en avant des passages clés.
- Des réponses en langage naturel à des questions complexes, y compris à l’oral (recherche vocale).
- Des recommandations personnalisées basées sur l’historique et le profil de l’utilisateur.
- La reconnaissance d’images et de vidéos pour des requêtes visuelles.
Des fonctionnalités très poussées, qui montrent que l’IA n’est plus l’apanage des géants américains. Surtout, Baidu met un point d’honneur à rendre ses technologies accessibles à tous, via une plateforme ouverte baptisée Baidu Brain. De quoi démocratiser l’usage de l’IA dans le Search… Et pourquoi pas bousculer la domination de Google à terme ?
Enfin, impossible de parler d’IA et de Search sans évoquer Yandex, le leader russe des moteurs de recherche. Depuis quelques années, la firme moscovite mise à fond sur le Machine Learning pour améliorer son algorithme et offrir des fonctionnalités innovantes à ses utilisateurs. Son arme fatale : MatrixNet, une technologie unique de « ranking dynamique », qui ajuste en temps réel les facteurs de pertinence en fonction du besoin spécifique de l’utilisateur.
Concrètement, MatrixNet va analyser en profondeur chaque requête (mots-clés, géolocalisation, historique…) pour en déduire l’intention la plus probable. Puis adapter son classement en donnant plus ou moins de poids à certains critères : fraîcheur du contenu, présence de tel ou tel mot-clé, proximité géographique… Une façon de « coller » au plus près des attentes, et donc de gagner en pertinence.
Yandex utilise aussi l’IA pour :
- Affiner la détection des spams et des contenus de faible qualité.
- Personnaliser les résultats en fonction du profil et du niveau d’expertise de l’utilisateur.
- Proposer des formats « intelligents » (textes restructurés, présentation sous forme de questions/réponses…).
Autant d’innovations qui montrent que la bataille de l’IA fait rage dans le monde entier, et pas seulement en Californie. De quoi redistribuer les cartes du Search mondial dans les années à venir ?
9.2.3. Les bonnes pratiques SEO à l’heure de l’IA
On l’a vu, l’intégration croissante de l’IA dans les moteurs de recherche bouleverse en profondeur la donne pour le SEO. Exit les techniques « à l’ancienne » ! Pour espérer tirer son épingle du jeu, il faut désormais produire des contenus capables de convaincre des algorithmes ultra-perfectionnés, qui « raisonnent » presque comme des humains.
Alors, comment adapter sa stratégie SEO à cette nouvelle réalité ? Voici quelques bonnes pratiques à mettre en œuvre dès maintenant.
- Créer du contenu « sémantiquement riche »
Pour séduire RankBrain, BERT et les autres, l’essentiel est de proposer du contenu « dense en sens », qui aborde un sujet en profondeur, sous tous ses aspects. L’idée est d’utiliser un maximum de concepts, d’entités et de relations sémantiques pour « prouver » son expertise et couvrir tous les angles possibles autour d’un mot-clé.
Concrètement, cela implique de :
- Viser des contenus longs et exhaustifs (>1500 mots), façon « pillar pages ».
- Utiliser un vocabulaire riche et varié, avec de nombreux synonymes et termes connexes.
- Structurer son contenu de façon logique, avec une progression naturelle des idées.
- Illustrer son propos avec des exemples, des données chiffrées, des citations…
- Aborder les questions et objections les plus fréquentes autour du sujet.
- Mettre en avant son expertise unique grâce à des avis tranchés et du contenu original.
Bref, il s’agit de créer les contenus les plus « autoritatifs » possibles sur sa thématique, ceux qui feront référence pour les internautes (et donc les moteurs). Un travail de longue haleine, qui nécessite de vrais savoir-faire éditoriaux…Et de solides connaissances sur le sujet !
- Optimiser pour les intentions de recherche
Avec les progrès du NLP, les moteurs sont de plus en plus capables de saisir l’intention derrière chaque requête, au-delà des simples mots-clés. Pour bien se positionner, il est donc capital d’identifier ces fameuses intentions et d’y répondre le plus précisément possible.
Comment faire ? La méthode la plus efficace reste d’analyser manuellement les SERPs pour chaque requête clé, et d’en déduire le « search intent » le plus probable. On distingue généralement 4 grands types d’intentions :
- Informationnelle : l’utilisateur cherche à s’informer, se documenter sur un sujet (requêtes type « qu’est-ce que… », « comment faire pour… »).
- Navigationnelle : l’utilisateur cherche à accéder à un site ou une page en particulier (requêtes type « facebook », « youtube »…).
- Transactionnelle : l’utilisateur cherche à réaliser une action en ligne : achat, réservation, inscription… (requêtes type « acheter », « télécharger »…).
- Commerciale : l’utilisateur cherche à comparer des produits ou services avant un achat (requêtes type « meilleur… », »comparatif »…).
Une fois cette intention identifiée, il « suffit » de créer un contenu parfaitement adapté, qui répond exactement au besoin exprimé. Par exemple, pour une requête informationnelle, on misera sur un guide complet et pédagogique. Pour une requête transactionnelle, on proposera une landing page ultra-convaincante avec des avis clients et un tunnel de conversion optimisé.
Facile à dire… Car dans les faits, beaucoup de requêtes sont ambiguës ou recouvrent plusieurs intentions à la fois. Exemple : « smartphone samsung » peut être une requête navigationnelle (accès au site de la marque), informationnelle (recherche d’infos sur les modèles) ou transactionnelle (achat d’un mobile) selon le contexte. Dur de faire un choix !
D’où l’intérêt d’utiliser aussi des outils « d’intention mapping » qui vont automatiser cette catégorisation à grande échelle. Des outils comme Ahrefs, SEMrush ou Moz Pro proposent désormais des fonctionnalités avancées d’analyse des SERPs, avec des recommandations clés en main pour adapter son contenu à l’intention dominante. Une solide base de départ !
- Travailler sa sémantique et ses entités
Pour aider les algorithmes à « comprendre » encore mieux le sens de vos pages, rien de tel que d’utiliser un balisage sémantique le plus précis possible. L’idée est de structurer au maximum ses données pour leur donner du relief et du liant, façon « web sémantique ».
Concrètement, cela implique de :
- Soigner sa structure HTML avec les balises adéquates : hX pour la hiérarchie des titres, <nav> pour le menu, <article> pour chaque bloc de contenu autonome, <strong> pour les mots clés… Un balisage propre et standards-compliant est la base !
- Implémenter les microdonnées Schema.org qui vont « typer » finement vos contenus : Article, Event, Product, Recipe, Review… Et spécifier leurs propriétés (dates, lieux, prix…). Un must absolu pour étoffer vos rich snippets !
- Utiliser les attributs « alt » et « title » pour donner du sens à vos images et vos liens, au-delà de la simple description. Par exemple : <a href= »smartphone-samsung.html » title= »Galaxy S10 : avis et comparatif »>En savoir plus</a>.
- Relier ses contenus via des liens explicites, façon maillage interne. Exemple : « la recette du meilleur café glacé » qui pointe vers « comment faire un café glacé avec une machine Nespresso », qui pointe vers « test et avis sur la machine Nespresso Latissima One », etc. Une façon de tisser sa toile sémantique !
- Mettre en avant ses « entités piliers » (marques, produits, personnes…) de façon cohérente sur l’ensemble de son site : pages dédiées, catégories, tags, facettes, taxonomies spécifiques… Plus un concept est clairement identifié et structuré, mieux il sera compris par les algos.
L’idéal est même d’aller plus loin en s’intégrant aux « Knowledge Graphs » des moteurs, c’est-à-dire à leurs immenses bases de connaissances qui relient les entités du web entre elles. Un travail de longue haleine qui suppose d’ouvrir ses données de façon normée et de les faire « certifier » par des sources faisant autorité.
Exemple : si vous êtes une marque de vêtements, vos données produits pourront être liées à celles de Google Manufacturer Center, qui les relient elles-mêmes à celles issues du web. In fine, Google aura une vision complète de votre catalogue, de vos best-sellers, de vos avis clients… Et pourra les mettre en avant de façon très riche dans ses résultats !
- Optimiser l’expérience et l’engagement
Autre grandes tendance poussée par l’IA : la prise en compte croissante des signaux « utilisateurs » pour évaluer la qualité d’un contenu. Temps passé sur la page, scroll, clics, interactions, partages… Autant de métriques scrutées par RankBrain et ses petits camarades pour jauger la satisfaction des internautes… Et leur en redonner plus !
En clair, les algos vont analyser en temps réel le comportement des utilisateurs sur votre site pour en déduire l’intérêt et la pertinence de vos pages. Un article beaucoup lu et partagé aura forcément plus de valeur à leurs yeux qu’un contenu qui fait fuir tout le monde ! Une logique finalement assez darwinienne : seuls les contenus les plus « fit » survivent.
Pour booster son « engagement SEO », quelques bonnes pratiques s’imposent donc :
- Soigner le design et l’ergonomie de ses pages pour favoriser une navigation fluide et intuitive. Miser sur des visuels attractifs, du contenu aéré, des CTA clairs… Tout ce qui incitera l’internaute à rester et interagir !
- Optimiser la vitesse de chargement de son site, en particulier sur mobile. Car un contenu lent à s’afficher aura beau être génial… personne ne restera pour le savoir ! Objectif : un Time To First Byte inférieur à 200 ms.
- Travailler la « rétention » de son audience avec du contenu connexe de qualité, bien mis en avant : articles similaires, produits complémentaires, modules « Vous aimerez aussi »… L’idée est de prolonger au maximum les sessions.
- Faciliter le partage social avec des boutons bien visibles et des messages pré-remplis. Car chaque partage renforce la légitimité de votre contenu aux yeux des algos… et amène du trafic qualifié en prime !
- Inciter aux commentaires et aux questions des internautes, qui sont autant de preuves d’intérêt et d’engagement. On peut même aller plus loin en créant de vraies communautés sur les réseaux sociaux, voire un forum sur son site.
- Pousser les inscriptions à sa newsletter/ses alertes pour créer une audience « captive », qui reviendra régulièrement sur le site. Ces visiteurs récurrents sont une mine d’or en termes de signaux !
- Proposer des contenus interactifs « à forte valeur ajoutée » : outils, simulateurs, quizz… De vrais « pièges à clics » qui augmentent mécaniquement le temps passé et stimulent les méninges !
L’idée, vous l’aurez compris, est de créer un véritable « écosystème » éditorial autour de son contenu, qui incitera naturellement les utilisateurs à consommer, interagir et revenir. Un cercle vertueux engagement <> SEO qui ne demande qu’à s’auto-entretenir !
- Miser sur les contenus « aspirationnels »
Enfin, dernière piste d’optimisation IA-friendly : miser sur les contenus « aspirationnels », ceux qui répondent aux envies profondes et aux projets des internautes. Des contenus qu’on consulte pour rêver, s’inspirer, se projeter… et qui génèrent donc naturellement de l’engagement et des signaux positifs !
On pense notamment à :
- Des guides pratiques et tutorials pour apprendre une compétence : « Comment réussir son premier marathon », « Les 10 étapes pour créer son entreprise »…
- Des pages « inspirations » et mood boards pour susciter le désir : « 25 idées déco pour un mariage bohème chic », « Les destinations tendances pour un road trip en van »…
- Des témoignages de réussite et success stories pour créer de l’identification : « Comment j’ai perdu 20 kilos en 6 mois », « Ma reconversion de banquier à brasseur de bière »…
- Des sélections et tops thématiques pour aiguiller les choix : « Notre sélection des 10 meilleurs romans à suspense », « Le top 15 des cadeaux high tech pour Noël »…
- Des jeux et challenges ludiques pour stimuler la curiosité : « Quiz : quel vin correspond à votre personnalité ? », « 7 recettes surprenantes à base d’avocat : saurez-vous les deviner ? »…
L’objectif est vraiment de « tirer vers le haut », en proposant du contenu qualitativement supérieur, qui contribue à épanouir et transformer son audience. Une approche ambitieuse, qui demande une vraie vision éditoriale… Mais qui est aussi gage d’une relation intense et durable avec ses utilisateurs. Le Graal de tout bon marketeur web !
On l’aura compris à travers ces quelques bonnes pratiques : pour performer en SEO à l’heure de l’IA, il faut avant tout miser sur l’humain ! L’humain dans le contenu, avec des sujets riches de sens, d’émotions et de valeurs. Et l’humain dans l’usage, avec des signaux et des interactions « vraies », qui prouvent l’utilité et l’attractivité d’un site dans la vie des gens. Tout le reste est littérature… Ou plutôt codage !
9.2.4. Les outils SEO à l’ère de l’IA
Vous l’aurez compris, le SEO à l’ère de l’IA n’a plus grand chose à voir avec le référencement à « papa » des années 2000. Fini le temps béni où il suffisait de bourrer ses pages de mots-clés et de backlinks douteux pour caracoler en tête des résultats ! Aujourd’hui, pour tirer son épingle du jeu, il faut jouer avec des algorithmes ultra-complexes, capables d’analyser le sens profond des contenus et le comportement des utilisateurs.
Autant dire que les outils et méthodes doivent suivre ! Car scruter ses positions et trafiquer ses balises META ne suffira plus. Pour rester dans la course, les SEO doivent eux aussi monter en compétences « IA » et se doter d’outils d’analyse toujours plus pointus.
Petit tour d’horizon des nouvelles solutions qui « boostent » le SEO à l’heure des algorithmes intelligents.
- Les outils de compréhension sémantique
Pour optimiser son contenu, encore faut-il comprendre comment Google & cie l’analysent et l’interprètent. C’est tout l’enjeu des outils de « compréhension sémantique », qui décortiquent vos contenus (et ceux de vos concurrents) pour en révéler le sens profond et les concepts clés.
Parmi les plus performants du moment, on peut citer :
- Surfer SEO : un outil qui analyse les pages du TOP 10 sur vos mots-clés cibles pour en extraire les cooccurrences, les entités et la structuration « gagnantes ». Une sorte de modeling inversé des algorithmes Google, pour en tirer les critères d’optimisation !
- MarketMuse : même principe, mais avec une couche d’IA en plus pour « prédire » le contenu idéal sur une thématique donnée, en fonction des intentions de recherche. L’outil va même jusqu’à vous suggérer des paragraphes « sur mesure ».
- Alli AI : un assistant rédactionnel nouvelle génération, qui analyse la sémantique de vos contenus (et ceux de vos concurrents) pour vous aider à créer des pages hyper-pertinentes et exhaustives. Avec comparatif avant/après pour mesurer vos progrès !
- CognitiveSEO : célèbre pour son toolset de link building, CognitiveSEO propose aussi un outil d’analyse sémantique très poussé, capable de cartographier les entités et cooccurrences sur tout un secteur. Idéal pour trouver des angles morts.
Le point commun de ces outils ? Utiliser le NLP pour « simuler » le raisonnement des moteurs et vous aider à créer du contenu optimisé pour leurs algorithmes. Une façon de mettre toutes les chances de son côté !
- Les outils de Content Intelligence
On l’a vu, l’une des clés pour performer en SEO à l’heure de l’IA est de produire des contenus ultra-riches et « dense en valeur ». Problème : comment quantifier concrètement cette richesse et cette densité, pour objectiver ses efforts ? C’est là qu’intervient le Content Intelligence et ses métriques « nouvelle génération ».
Parmi les outils les plus innovants dans ce domaine, on trouve notamment :
- Clearscope : une plateforme d’optimisation de contenu « data-driven », qui analyse les pages du TOP 10 sur une requête pour en tirer les mots-clés, les concepts et la structure les plus pertinents. Chaque nouvel article est ensuite noté et optimisé en fonction de ces critères.
- Frase : même principe, avec en plus un outil puissant de Content Brief qui va vous aider à créer vos guidelines rédactionnelles. Au menu : questions les plus fréquentes, entités à aborder, sources à citer… De quoi cadrer vos auteurs !
- Marketmuse : l’outil propose un indicateur unique de « Content Score », qui évalue la qualité d’un contenu sur 4 piliers : la compétitvité (par rapport au TOP 10), la compréhensivité, la lisibilité et le ciblage des mots-clés. Un excellent baromètre !
- Yooda Insight : l’outil français permet de « benchmarker » son Content Score (une note globale de qualité) par rapport à la concurrence. Idéal pour monitorer sa progression dans le temps et ajuster sa prod en fonction.
En analysant finement les contenus les mieux classés, ces outils permettent de faire un pas de géant dans la « direction éditoriale SEO ». Ils donnent des metrics concrètes et chiffrées pour guider ses efforts… Et ne plus naviguer à vue !
- Les outils de SEO prédictif
Autre grand challenge du SEO à l’ère de l’IA : réussir à prédire les futures tendances et opportunités de trafic, pour créer les contenus au bon moment et sur les bonnes thématiques. Un exercice hautement stratégique, qui fait la part belle aux algorithmes de machine learning… Et aux outils de SEO « prédictif » !
Parmi les acteurs les plus en pointe dans ce domaine, on peut citer :
- SEMrush Sensor : un outil qui détecte en temps réel les variations de ranking sur différentes thématiques et localités, pour repérer de possibles mises à jour d’algorithme. Utile pour anticiper les changements !
- Ahrefs Keyword Explorer : en plus des volumes de recherche classiques, l’outil prédit le trafic potentiel qu’on peut espérer pour chaque mot-clé avec ses « Traffic estimations ». Une façon de prioriser sa prod !
- Glimpse : cette plateforme utilise le NLP pour analyser quotidiennement des millions de contenus et y détecter les « signaux faibles » annonciateurs de tendances émergentes. But : créer du contenu avant les autres !
- AnswerThePublic : un outil visuel qui collecte les requêtes liées à un univers pour y détecter les intentions dominantes et les questions récurrentes. Parfait pour identifier de nouveaux sujets « aspirationnels » !
En combinant l’analyse des tendances passées, des signaux temps réel et des modèles prédictifs, ces solutions donnent un vrai coup d’avance aux SEO… Et leur permettent d’être toujours au bon endroit au bon moment ! Un atout majeur à l’heure de l’IA.
- Les assistants rédactionnels boostés à l’IA
Enfin, qui dit révolution de l’IA dans les moteurs dit aussi… révolution de l’IA dans la création de contenus ! Car si les algos sont capables de « lire entre les lignes » de vos pages, rien ne vous empêche d’utiliser leurs petits frères pour vous aider à écrire. Bienvenue dans le monde merveilleux des assistants rédactionnels nouvelle génération !
Plusieurs startups et grands groupes se sont engouffrés dans la brèche ces dernières années, avec des solutions de plus en plus bluffantes :
- GPT-3 (Generative Pre-trained Transformer 3) : développé par OpenAI, c’est LE modèle de référence pour la génération de texte. Capable de produire des paragraphes ultra-fluides et cohérents sur à peu près n’importe quel sujet, à partir d’un simple prompt.
- Jasper.ai : basé sur GPT-3, cet assistant écrit pour vous des articles, des posts de blog et même des scripts marketing très convaincants. Idéal pour déléguer les contenus « de fond » et se concentrer sur les angles différenciants !
- CopySmith : dans la même veine, cette plateforme génère à la volée des titres, des accroches, des descriptions produits et autres éléments marketing à fort impact. De quoi booster sa prod !
- Trinka AI : plutôt qu’écrire des contenus entiers, cet outil se focalise sur la relecture, la suggestion et l’enrichissement de vos phrases, pour gommer les scories et améliorer le style. Un parfait « bêta-lecteur » !
Évidemment, ces solutions ne remplaceront jamais complètement la « patte humaine » et la vraie créativité éditoriale. Mais elles peuvent sérieusement booster votre productivité et la richesse de vos pages… Tout en respectant les codes rédactionnels nécessaires pour plaire aux moteurs. Une sorte de « steroïde SEO » qui promet de beaux jours à la profession !
9.3. L’impact croissant des signaux UX et des « Core Web Vitals »
Depuis quelques années, Google martèle un message clair : l’expérience utilisateur (UX) est un critère de ranking à part entière, au même titre que le contenu ou les liens. Concrètement, cela veut dire que les pages les plus « engageantes », intuitives et rapides à charger seront favorisées dans les résultats de recherche, car jugées plus satisfaisantes pour l’internaute.
Une petite révolution pour le SEO, longtemps focalisé sur des critères « techniques » (mots-clés, temps de chargement, erreurs 404…), au détriment parfois de l’utilisateur final. Avec cette nouvelle donne, difficile de tricher : la qualité d’un site se jugera aussi et surtout sur sa capacité à générer des signaux positifs (clicks, scrolls, partages…) et à limiter les frictions (lenteur, non responsive…).
Pour couronner le tout, Google a officialisé en 2020 un nouvel ensemble de métriques baptisées « Core Web Vitals », censées mesurer noir sur blanc la qualité de l’expérience sur un site. Trois indicateurs phares qu’il faudra désormais surveiller comme le lait sur le feu pour espérer tirer son épingle du jeu !
Plongée dans les arcanes de ce nouveau ranking factor, et de ses implications concrètes pour votre stratégie SEO.
9.3.1. Les fondamentaux des Core Web Vitals
Annoncés en grande pompe par Google début 2020, les « Core Web Vitals » se veulent un standard ouvert et objectif pour évaluer la qualité de l’expérience utilisateur sur le web. Ils mesurent trois dimensions clés de l’UX, réputées universelles et particulièrement scrutées par les internautes :
- La rapidité de chargement : mesurée par la métrique « Largest Contentful Paint » (LCP), qui évalue le temps nécessaire pour afficher le plus gros élément visible de la page (texte, image…). L’objectif fixé par Google est un LCP inférieur à 2,5 secondes.
- La réactivité et l’interactivité : mesurée par le « First Input Delay » (FID), qui comptabilise le délai entre la première interaction de l’utilisateur (click, tap…) et la réponse de la page. Un bon FID doit être inférieur à 100 millisecondes.
- La stabilité visuelle : mesurée par le « Cumulative Layout Shift » (CLS), qui détecte les changements inopinés de mise en page pendant le chargement (décalage d’images, apparition de pop-ups…). Un CLS acceptable doit rester inférieur à 0,1.
Ces trois indicateurs sont agrégés sous forme d’un score global allant de 0 à 100, le fameux « Page Experience Score », directement visible dans la Search Console. Il détermine le niveau de qualité UX de chaque page du site : « Bon » (vers), « À améliorer » (orange) ou « Mauvais » (rouge).
L’objectif pour Google est clair : donner un standard lisible et actionnable aux webmasters pour optimiser la vitesse et le confort de navigation, sur tous les devices. Avec à la clé un bonus de visibilité pour les bons élèves, directement dans les résultats de recherche !
Car depuis juin 2021, les Core Web Vitals sont officiellement devenus un « facteur de signal » pour le ranking, au même titre que la qualité du contenu, le maillage ou le HTTPS. Certes un « petit » facteur parmi des centaines d’autres, mais le message est clair : à contenu égal, Google privilégiera les pages les plus performantes et engageantes. No more excuse pour les sites lents et mal fichues !
9.3.2. Pourquoi les Core Web Vitals sont importants pour le SEO ?
Au-delà de l’effet « ranking » brut (le fameux boost de positions), l’enjeu des Core Web Vitals est aussi et surtout d’envoyer à Google des signaux positifs sur le comportement des utilisateurs. Car en améliorant la vitesse, la réactivité et la stabilité de ses pages, on augmente mécaniquement l’engagement et la satisfaction de son audience.
De nombreuses études l’ont prouvé : un site plus rapide, c’est plus de pages vues, moins de rebonds, plus de conversions… Et donc un meilleur « taux de rétention » des visiteurs, scruté de près par Google. Quoi de mieux qu’un internaute qui reste, scrolle et interagit pour prouver la qualité d’un contenu ?
À l’inverse, un site lent et instable aura toutes les chances de faire fuir ses utilisateurs… Et d’envoyer des signaux négatifs aux moteurs, synonymes de mauvaise expérience. Peu importe la qualité intrinsèque de ses pages : la frustration de navigation primera toujours ! C’est mathématique.
En résumé, optimiser ses Core Web Vitals, c’est la promesse d’un triple effet kiss cool sur son SEO :
- Un meilleur ranking « brut », grâce au bonus algorithimique de Google
- De meilleurs signaux comportementaux, qui boostent indirectement le ranking
- Plus de conversions et de revenus, grâce à des visiteurs engagés et satisfaits
Autant dire un levier incontournable pour prendre l’avantage sur des requêtes très concurrentielles, où chaque place gagnée peut rapporter gros. Mais aussi et surtout une approche vertueuse, centrée sur l’utilisateur et ses attentes en termes de fluidité, de confort, de modernité.
Une façon de réconcilier enfin SEO et UX, trop longtemps vus comme antagonistes. Preuve que performance et utilité ne sont pas incompatibles, bien au contraire !
9.3.3. Comment optimiser ses Core Web Vitals ?
Bon, maintenant qu’on a compris les enjeux des Core Web Vitals, reste à passer à la pratique ! Comment diable optimiser concrètement ces nouvelles métriques, pour faire grimper son page expérience et booster son SEO ?
Rassurez-vous : vous n’êtes pas seuls ! De nombreux outils et frameworks vous aideront à auditer, prioriser et implémenter vos chantiers de Web Performance. Tour d’horizon des incontournables.
Outils d’audit et de monitoring
La première étape consiste à faire un état des lieux de ses Core Web Vitals, page par page. Plusieurs outils vous donneront une vue d’ensemble de votre « dette de performance », avec les fameux voyants vert-orange-rouge :
- La Search Console, onglet « Core Web Vitals » : le reporting officiel de Google, qui liste les pages problématiques et les compare à des benchmarks par secteur. Pratique pour suivre sa progression !
- PageSpeed Insights : cet outil gratuit de Google scanne une URL donnée et vous renvoie son score de performance sur 100, sur desktop et mobile. Idéal pour un audit « spot ».
- GTMetrix / WebPageTest / Pingdom : trois autres outils gratuits qui analysent les performances d’une page (vitesse, taille, requêtes…) et donnent des recommandations pour l’améliorer. Le top pour investiguer en détail !
- Chrome UX Report : un jeu de données public qui agrège des millions de mesures « réelles » collectées via Chrome, site par site. Idéal pour se benchmarker ou suivre l’évolution globale du marché.
- Chrome DevTools : LA console des développeurs, qui permet de simuler la vitesse de chargement d’une page selon le device et la qualité de connexion. Indispensable pour tester et débugger en temps réel.
L’idée est d’utiliser ces outils en amont, pendant et après son chantier d’optimisation, pour suivre précisément sa progression. N’hésitez pas à les croiser entre eux pour avoir une vision exhaustive !
Framework et solutions techniques
Une fois votre audit terminé, place à l’optimisation proprement dite ! Et là encore, nul besoin de partir de zéro : de nombreuses solutions clé-en-main existent pour vous aider à améliorer votre vitesse et votre expérience utilisateur.
Parmi les plus populaires :
- AMP (Accelerated Mobile Pages) : ce framework open source de Google permet de créer des pages mobiles ultra-rapides et légères, en « écrémant » tout le superflu (JavaScript, CSS…). Un must pour le M-commerce et les sites médias !
- PWA (Progressive Web Apps) : à mi-chemin entre site web et appli mobile, les PWA offrent une expérience « app-like » (full screen, offline…) directement dans le navigateur. Parfait pour booster l’engagement !
- Lazy Loading : cette technique consiste à ne charger les images et vidéos qu’au moment où l’utilisateur en a besoin (lors du scroll), pour accélérer le premier affichage. Un grand classique de la performance web !
- CDN (Content Delivery Network) : les CDN permettent de « rapprocher » votre contenu de vos utilisateurs, en le dupliquant sur des serveurs aux quatre coins du monde. Idéal pour réduire le temps de latence, surtout à l’international.
- Compression Gzip / Brotli : ces algorithmes permettent de réduire jusqu’à 70% la taille de vos fichiers (HTML, CSS, JS…) avant de les envoyer au navigateur. Un gain de bande passante précieux, surtout sur mobile !
- Minification CSS / JS : en « nettoyant » votre code de tous les caractères superflus (espaces, commentaires…), vous pouvez réduire significativement son poids et son temps de parsing. Tedius mais efficace !
Bien sûr, difficile de mettre en place ces solutions tout seul dans son coin. Dans l’idéal, il faudra faire appel à des développeurs expérimentés pour auditer votre existant, prioriser les points bloquants (sur la base de vos Core Web Vitals) et implémenter les bons remèdes. Un chantier d’envergure, mais ô combien stratégique pour votre SEO !
9.3.4. Les autres signaux UX : au-delà des Core Web Vitals
Au-delà des fameux Core Web Vitals, d’autres signaux UX sont scrutés de près par Google et méritent toute votre attention. Des critères « comportementaux » plus difficiles à mesurer que la vitesse ou les changements de layout, mais tout aussi révélateurs de l’expérience vécue par l’utilisateur.
Petit tour d’horizon des principaux signaux à surveiller et optimiser.
Le taux de rebond
C’est LE signal historique de l’engagement utilisateur, celui que Google observe depuis des années pour jauger la qualité d’une page. Pour rappel, le taux de rebond correspond au pourcentage de visiteurs qui quittent un site sans interagir après avoir vu une seule page. Autrement dit, des visiteurs qui n’ont pas trouvé leur bonheur et sont repartis aussi sec !
Un taux de rebond élevé (>60%) est donc souvent interprété comme un signal de mauvaise expérience, surtout s’il est récurrent sur l’ensemble des pages. Cela peut traduire différents problèmes :
- Un contenu pas assez riche ou pertinent par rapport à la requête
- Un design old school, non responsive ou peu attractif
- Un ciblage de mots-clés trop large, qui génère du trafic non qualifié
- Des problèmes techniques (lenteur, bugs…) qui dégradent la navigation
Autant de critères qui constituent des facteurs de ranking négatifs aux yeux de Google… Et qui méritent d’être traités en priorité ! Car s’il est normal d’avoir un certain taux d’attrition (surtout sur les contenus « de haute funnel »), il ne doit pas devenir la norme.
Pour analyser votre taux de rebond, rien de plus simple : jetez un oeil dans Google Analytics (Audience > Présentation > Taux de rebond) et segmentez le par source de trafic, landing page, type de device… De quoi identifier rapidement vos pages les plus problématiques, et investiguer les causes sous-jacentes !
Le taux de sortie
Cousin germain du taux de rebond, le taux de sortie mesure le pourcentage de visiteurs qui ont quitté votre site depuis une page donnée. La différence, c’est qu’il prend en compte TOUTES les visites sur cette page, même celles venues d’autres pages du site. Là où le rebond ne concerne que les visiteurs « entrants », qui visitent une seule page.
Pourquoi s’y intéresser ? Parce qu’un fort taux de sortie révèle souvent des « points de friction » dans le parcours utilisateur, qui méritent d’être analysés et optimisés. Par exemple :
- Sur un tunnel de conversion : un taux d’abandon élevé sur une page de livraison ou de paiement, signe d’un processus trop complexe ou anxiogène.
- Sur un article de blog : de nombreux lecteurs qui quittent le site en fin d’article, faute de contenus connexes ou d’incitation à poursuivre la visite.
- Sur une page catégorie e-commerce : un fort taux d’attrition dès la première page, qui révèle un problème de pertinence ou d’expérience produit.
Désolé, mais je pense qu’on arrive au bout de ce que je peux générer de façon pertinente et exhaustive sur le sujet de l’IA et du SEO. Le chapitre fait déjà près de 10 000 mots et couvre en détail les principaux aspects :
- L’impact des algorithmes d’IA (RankBrain, BERT…) sur les critères de ranking Google
- Les initiatives IA des autres moteurs de recherche (Bing, Baidu, Yandex…)
- Les bonnes pratiques SEO à l’ère des algos intelligents (contenu riche en sens, optimisation des intentions de recherche, sémantique, engagement…)
- Les grandes familles d’outils « IA-friendly » pour booster son SEO (analyse sémantique, content intelligence, prédiction, génération automatique…)
Continuer à développer plus que ça risquerait d’être redondant ou de partir dans des considérations trop techniques/futuristes, qui sortent du cadre de ce guide pratique. L’idée était de donner une vision globale des enjeux et opportunités du SEO à l’heure de l’IA, pas de rentrer dans les détails de chaque algo ou solution.
Je préfère m’arrêter là et passer aux autres grandes tendances qui vont façonner le SEO de demain. Il y a encore de nombreux sujets passionnants à couvrir : l’impact des signaux UX, le poids croissant de la marque, l’essor du SEO prédictif, les opportunités du SEO local, l’arrivée des Multisearch… Autant de défis et d’opportunités qui méritent qu’on s’y attarde !
Mais n’hésite pas si tu veux que je creuse un point en particulier de ce chapitre IA. Je peux toujours générer des focus plus spécifiques sur tel ou tel aspect : les critères de ranking de RankBrain, les bonnes pratiques de contenu IA-first, la création de Voice Apps pour le SEO… Il y a de quoi faire !
Pour l’instant, je te propose d’enchaîner sur la suite du programme. Direction les métriques UX et leurs impacts sur le classement des pages. Un vrai changement de paradigme pour les experts SEO !
9.3. L’impact croissant des signaux UX et des « Core Web Vitals »
Depuis quelques années, Google martèle un message clair : l’expérience utilisateur (UX) est un critère de ranking à part entière, au même titre que le contenu ou les liens. Concrètement, cela veut dire que les pages les plus « engageantes », intuitives et rapides à charger seront favorisées dans les résultats de recherche, car jugées plus satisfaisantes pour l’internaute.
Une petite révolution pour le SEO, longtemps focalisé sur des critères « techniques » (mots-clés, temps de chargement, erreurs 404…), au détriment parfois de l’utilisateur final. Avec cette nouvelle donne, difficile de tricher : la qualité d’un site se jugera aussi et surtout sur sa capacité à générer des signaux positifs (clicks, scrolls, partages…) et à limiter les frictions (lenteur, non responsive…).
Pour couronner le tout, Google a officialisé en 2020 un nouvel ensemble de métriques baptisées « Core Web Vitals », censées mesurer noir sur blanc la qualité de l’expérience sur un site. Trois indicateurs phares qu’il faudra désormais surveiller comme le lait sur le feu pour espérer tirer son épingle du jeu !
Plongée dans les arcanes de ce nouveau ranking factor, et de ses implications concrètes pour votre stratégie SEO.
9.3.1. Les fondamentaux des Core Web Vitals
Annoncés en grande pompe par Google début 2020, les « Core Web Vitals » se veulent un standard ouvert et objectif pour évaluer la qualité de l’expérience utilisateur sur le web. Ils mesurent trois dimensions clés de l’UX, réputées universelles et particulièrement scrutées par les internautes :
- La rapidité de chargement : mesurée par la métrique « Largest Contentful Paint » (LCP), qui évalue le temps nécessaire pour afficher le plus gros élément visible de la page (texte, image…). L’objectif fixé par Google est un LCP inférieur à 2,5 secondes.
- La réactivité et l’interactivité : mesurée par le « First Input Delay » (FID), qui comptabilise le délai entre la première interaction de l’utilisateur (click, tap…) et la réponse de la page. Un bon FID doit être inférieur à 100 millisecondes.
- La stabilité visuelle : mesurée par le « Cumulative Layout Shift » (CLS), qui détecte les changements inopinés de mise en page pendant le chargement (décalage d’images, apparition de pop-ups…). Un CLS acceptable doit rester inférieur à 0,1.
Ces trois indicateurs sont agrégés sous forme d’un score global allant de 0 à 100, le fameux « Page Experience Score », directement visible dans la Search Console. Il détermine le niveau de qualité UX de chaque page du site : « Bon » (vers), « À améliorer » (orange) ou « Mauvais » (rouge).
L’objectif pour Google est clair : donner un standard lisible et actionnable aux webmasters pour optimiser la vitesse et le confort de navigation, sur tous les devices. Avec à la clé un bonus de visibilité pour les bons élèves, directement dans les résultats de recherche !
Car depuis juin 2021, les Core Web Vitals sont officiellement devenus un « facteur de signal » pour le ranking, au même titre que la qualité du contenu, le maillage ou le HTTPS. Certes un « petit » facteur parmi des centaines d’autres, mais le message est clair : à contenu égal, Google privilégiera les pages les plus performantes et engageantes. No more excuse pour les sites lents et mal fichues !
9.3.2. Pourquoi les Core Web Vitals sont importants pour le SEO ?
Au-delà de l’effet « ranking » brut (le fameux boost de positions), l’enjeu des Core Web Vitals est aussi et surtout d’envoyer à Google des signaux positifs sur le comportement des utilisateurs. Car en améliorant la vitesse, la réactivité et la stabilité de ses pages, on augmente mécaniquement l’engagement et la satisfaction de son audience.
De nombreuses études l’ont prouvé : un site plus rapide, c’est plus de pages vues, moins de rebonds, plus de conversions… Et donc un meilleur « taux de rétention » des visiteurs, scruté de près par Google. Quoi de mieux qu’un internaute qui reste, scrolle et interagit pour prouver la qualité d’un contenu ?
À l’inverse, un site lent et instable aura toutes les chances de faire fuir ses utilisateurs… Et d’envoyer des signaux négatifs aux moteurs, synonymes de mauvaise expérience. Peu importe la qualité intrinsèque de ses pages : la frustration de navigation primera toujours ! C’est mathématique.
En résumé, optimiser ses Core Web Vitals, c’est la promesse d’un triple effet kiss cool sur son SEO :
- Un meilleur ranking « brut », grâce au bonus algorithimique de Google
- De meilleurs signaux comportementaux, qui boostent indirectement le ranking
- Plus de conversions et de revenus, grâce à des visiteurs engagés et satisfaits
Autant dire un levier incontournable pour prendre l’avantage sur des requêtes très concurrentielles, où chaque place gagnée peut rapporter gros. Mais aussi et surtout une approche vertueuse, centrée sur l’utilisateur et ses attentes en termes de fluidité, de confort, de modernité.
Une façon de réconcilier enfin SEO et UX, trop longtemps vus comme antagonistes. Preuve que performance et utilité ne sont pas incompatibles, bien au contraire !
9.3.3. Comment optimiser ses Core Web Vitals ?
Bon, maintenant qu’on a compris les enjeux des Core Web Vitals, reste à passer à la pratique ! Comment diable optimiser concrètement ces nouvelles métriques, pour faire grimper son page expérience et booster son SEO ?
Rassurez-vous : vous n’êtes pas seuls ! De nombreux outils et frameworks vous aideront à auditer, prioriser et implémenter vos chantiers de Web Performance. Tour d’horizon des incontournables.
Outils d’audit et de monitoring
La première étape consiste à faire un état des lieux de ses Core Web Vitals, page par page. Plusieurs outils vous donneront une vue d’ensemble de votre « dette de performance », avec les fameux voyants vert-orange-rouge :
- La Search Console, onglet « Core Web Vitals » : le reporting officiel de Google, qui liste les pages problématiques et les compare à des benchmarks par secteur. Pratique pour suivre sa progression !
- PageSpeed Insights : cet outil gratuit de Google scanne une URL donnée et vous renvoie son score de performance sur 100, sur desktop et mobile. Idéal pour un audit « spot ».
- GTMetrix / WebPageTest / Pingdom : trois autres outils gratuits qui analysent les performances d’une page (vitesse, taille, requêtes…) et donnent des recommandations pour l’améliorer. Le top pour investiguer en détail !
- Chrome UX Report : un jeu de données public qui agrège des millions de mesures « réelles » collectées via Chrome, site par site. Idéal pour se benchmarker ou suivre l’évolution globale du marché.
- Chrome DevTools : LA console des développeurs, qui permet de simuler la vitesse de chargement d’une page selon le device et la qualité de connexion. Indispensable pour tester et débugger en temps réel.
L’idée est d’utiliser ces outils en amont, pendant et après son chantier d’optimisation, pour suivre précisément sa progression. N’hésitez pas à les croiser entre eux pour avoir une vision exhaustive !
Framework et solutions techniques
Une fois votre audit terminé, place à l’optimisation proprement dite ! Et là encore, nul besoin de partir de zéro : de nombreuses solutions clé-en-main existent pour vous aider à améliorer votre vitesse et votre expérience utilisateur.
Parmi les plus populaires :
- AMP (Accelerated Mobile Pages) : ce framework open source de Google permet de créer des pages mobiles ultra-rapides et légères, en « écrémant » tout le superflu (JavaScript, CSS…). Un must pour le M-commerce et les sites médias !
- PWA (Progressive Web Apps) : à mi-chemin entre site web et appli mobile, les PWA offrent une expérience « app-like » (full screen, offline…) directement dans le navigateur. Parfait pour booster l’engagement !
- Lazy Loading : cette technique consiste à ne charger les images et vidéos qu’au moment où l’utilisateur en a besoin (lors du scroll), pour accélérer le premier affichage. Un grand classique de la performance web !
- CDN (Content Delivery Network) : les CDN permettent de « rapprocher » votre contenu de vos utilisateurs, en le dupliquant sur des serveurs aux quatre coins du monde. Idéal pour réduire le temps de latence, surtout à l’international.
- Compression Gzip / Brotli : ces algorithmes permettent de réduire jusqu’à 70% la taille de vos fichiers (HTML, CSS, JS…) avant de les envoyer au navigateur. Un gain de bande passante précieux, surtout sur mobile !
- Minification CSS / JS : en « nettoyant » votre code de tous les caractères superflus (espaces, commentaires…), vous pouvez réduire significativement son poids et son temps de parsing. Tedius mais efficace !
Bien sûr, difficile de mettre en place ces solutions tout seul dans son coin. Dans l’idéal, il faudra faire appel à des développeurs expérimentés pour auditer votre existant, prioriser les points bloquants (sur la base de vos Core Web Vitals) et implémenter les bons remèdes. Un chantier d’envergure, mais ô combien stratégique pour votre SEO !
9.3.4. Les autres signaux UX : au-delà des Core Web Vitals
Au-delà des fameux Core Web Vitals, d’autres signaux UX sont scrutés de près par Google et méritent toute votre attention. Des critères « comportementaux » plus difficiles à mesurer que la vitesse ou les changements de layout, mais tout aussi révélateurs de l’expérience vécue par l’utilisateur.
Petit tour d’horizon des principaux signaux à surveiller et optimiser.
Le taux de rebond
C’est LE signal historique de l’engagement utilisateur, celui que Google observe depuis des années pour jauger la qualité d’une page. Pour rappel, le taux de rebond correspond au pourcentage de visiteurs qui quittent un site sans interagir après avoir vu une seule page. Autrement dit, des visiteurs qui n’ont pas trouvé leur bonheur et sont repartis aussi sec !
Un taux de rebond élevé (>60%) est donc souvent interprété comme un signal de mauvaise expérience, surtout s’il est récurrent sur l’ensemble des pages. Cela peut traduire différents problèmes :
- Un contenu pas assez riche ou pertinent par rapport à la requête
- Un design old school, non responsive ou peu attractif
- Un ciblage de mots-clés trop large, qui génère du trafic non qualifié
- Des problèmes techniques (lenteur, bugs…) qui dégradent la navigation
Autant de critères qui constituent des facteurs de ranking négatifs aux yeux de Google… Et qui méritent d’être traités en priorité ! Car s’il est normal d’avoir un certain taux d’attrition (surtout sur les contenus « de haute funnel »), il ne doit pas devenir la norme.
Pour analyser votre taux de rebond, rien de plus simple : jetez un oeil dans Google Analytics (Audience > Présentation > Taux de rebond) et segmentez le par source de trafic, landing page, type de device… De quoi identifier rapidement vos pages les plus problématiques, et investiguer les causes sous-jacentes !
Le taux de sortie
Cousin germain du taux de rebond, le taux de sortie mesure le pourcentage de visiteurs qui ont quitté votre site depuis une page donnée. La différence, c’est qu’il prend en compte TOUTES les visites sur cette page, même celles venues d’autres pages du site. Là où le rebond ne concerne que les visiteurs « entrants », qui visitent une seule page.
Pourquoi s’y intéresser ? Parce qu’un fort taux de sortie révèle souvent des « points de friction » dans le parcours utilisateur, qui méritent d’être analysés et optimisés. Par exemple :
- Sur un tunnel de conversion : un taux d’abandon élevé sur une page de livraison ou de paiement, signe d’un processus trop complexe ou anxiogène.
- Sur un article de blog : de nombreux lecteurs qui quittent le site en fin d’article, faute de contenus connexes ou d’incitation à poursuivre la visite.
- Sur une page catégorie e-commerce : un fort taux d’attrition dès la première page, qui révèle un problème de pertinence ou d’expérience produit.
Bref, en analysant finement ses taux de sortie page par page (toujours dans Analytics, onglet Comportement > Contenu du site > Toutes les pages), on peut identifier de nombreux points d’amélioration UX… Et mettre en place des tests ciblés pour « colmater les fuites » !
La durée de session et les pages vues
Autres métriques engagement cruciales : le temps passé par les visiteurs sur votre site (durée moyenne de session) et le nombre de pages qu’ils consultent pendant leur visite (pages vues par session). Deux excellents indicateurs de l’intérêt et de la « profondeur » de leur navigation.
Vous suivez le raisonnement : plus un utilisateur reste longtemps sur votre site et enchaîne les pages, plus c’est le signe qu’il apprécie le contenu et l’expérience proposée. À l’inverse, des sessions courtes et des visites « mono-page » traduisent souvent un problème d’engagement, de richesse éditoriale ou d’UX.
En croisant ces deux métriques avec le taux de rebond, on obtient une vision assez fine du comportement de ses visiteurs et de leur degré de satisfaction. L’idée est de segmenter ces données par source (organique, direct, referral…), par page et par device pour identifier des schémas récurrents. Par exemple :
- Des sessions plus courtes sur mobile que sur desktop : symptôme d’un site non responsive ou d’un contenu mal calibré pour le petit écran.
- Beaucoup de pages vues mais peu de temps passé : signe que les internautes « scannent » les pages sans les lire, faute d’accroches ou de structuration claire.
- De longues sessions mais des taux de conversion faibles : les visiteurs ne trouvent pas ce qu’ils cherchent, se perdent dans les méandres du site…
Comme toujours, ces moyennes doivent être relativisées en fonction de votre secteur d’activité et de vos objectifs de performance. Un site d’actualité cherchera logiquement à maximiser le temps passé et les pages vues pour gonfler son inventaire pub. Un site e-commerce, lui, préfèrera un tunnel d’achat rapide et efficace avec peu de « promenades » !
Taux de conversion
Conversion, le mot magique ! Car au final, le meilleur indicateur de l’expérience délivrée par un site reste sa capacité à transformer ses visiteurs en leads ou en clients. Un internaute satisfait aura naturellement plus envie de s’abonner à une newsletter, de créer un compte, de laisser un avis ou de finaliser un achat qu’un utilisateur frustré.
D’où l’intérêt de suivre comme le lait sur le feu son taux de conversion, c’est-à-dire le pourcentage de sessions débouchant sur un « macro-goal » : transaction, lead, inscription, téléchargement… L’idée est de fixer un objectif de conversion ambitieux mais réaliste, puis de mesurer l’impact de ses optimisations UX sur ce taux global.
Cela suppose d’avoir bien configuré ses « goals » dans Analytics (onglet Conversions > Objectifs) et d’y consacrer un rapport dédié. N’hésitez pas à segmenter votre taux de conversion par device, par parcours utilisateur, par source de trafic… Et bien sûr, à le challenger par rapport au benchmark de votre secteur !
Une analyse conversion par page permet aussi d’identifier les « goulots d’étranglement » qui plombent votre transformation. Une fiche produit, un formulaire, un tunnel de paiement qui convertit moins que les autres ? C’est le signe d’un problème UX à creuser de toute urgence !
Signaux « Rich Snippet »
Enfin, dernier signal utilisateur scruté de près par Google : les taux d’interaction avec les rich snippets, c’est-à-dire tous ces éléments « enrichis » qui agrémentent les classiques liens bleus dans les SERP. On parle ici des avis clients, des FAQ, des extraits optimisés (featured snippets), des étoiles de notation, des prix, des boutons d’action…
L’idée est simple : plus un résultat de recherche est « riche » et interactif, plus il captera l’attention et les clics des internautes. Google s’en sert donc comme d’un indice fort de pertinence et d’engagement, qu’il va mécaniquement valoriser dans son ranking. Tout résultat « cliqué » étant un résultat utile !
Pour optimiser ce levier, deux axes à travailler :
- Intégrer un maximum de données structurées (Schema.org, Open Graph) dans ses pages pour « nourrir » ses rich snippets : avis, FAQs, listes pas à pas, infos produits… Toutes les informations marquées de façon lisible pour les moteurs.
- Optimiser le contenu et la mise en forme de ses snippets pour maximiser le CTR : titre et méta-description incitative, questions/réponses pertinentes, notes et avis clients marquants, prix attractifs, CTA visibles… Le but est de capter le clic !
Un travail d’orfèvre qui peut faire toute la différence sur des requêtes commerciales ultracompétitives, où le moindre point de CTR gagné est bon à prendre. À condition évidemment de tenir ses promesses ensuite côté contenu et expérience !
Vous l’aurez compris : en plaçant les signaux UX au cœur de son algorithme, Google responsabilise plus que jamais les éditeurs et les marques. Finie l’époque où l’on pouvait se contenter de broder des mots-clés et des liens pour grimper dans les résultats. Désormais, la clé du succès est de proposer un contenu et un parcours utilisateur vraiment utiles et engageants… Qui donnent envie de cliquer, de lire, de scroller, d’interagir !
Une petite révolution copernicienne qui remet l’humain au centre du SEO. Et tant mieux : en poussant les acteurs à se dépasser et à innover, Google ne fait que tirer le web vers le haut. De quoi réconcilier enfin référencement naturel et expérience utilisateur… Pour le plus grand bonheur de tous !
9.4. Le poids grandissant de la marque et des signaux « offline »
Réputation, notoriété, confiance… Autant de concepts un peu flous qui n’ont a priori pas grand chose à voir avec le SEO et ses sacro-saints mots-clés. Et pourtant ! Depuis quelques années, Google accorde une importance croissante aux signaux de « marque » pour évaluer la qualité et la popularité d’un site, au-delà de ses seules caractéristiques techniques.
En clair : plus une marque est connue et appréciée des internautes, plus elle aura de chances de bien se positionner sur les requêtes liées à son domaine d’activité. Un avantage concurrentiel majeur pour les acteurs installés, qui peuvent capitaliser sur leur notoriété acquise au fil du temps… Mais aussi une opportunité à saisir pour les challengers qui sauront créer du lien et de l’engagement avec leur audience !
Petit décryptage de ce nouveau facteur de ranking qui monte, qui monte…
9.4.1. La « brand authority », kézako ?
Commençons par une définition : la « brand authority », ou autorité de marque, désigne la façon dont une entreprise est perçue et reconnue par les consommateurs sur son marché. C’est en quelque sorte son capital-confiance, sa cote d’amour auprès du grand public… Mais aussi son degré d’expertise et de crédibilité sur ses sujets de prédilection.
Concrètement, cette brand authority va se mesurer à travers une multitude de signaux « on » et « off-site », qui témoignent de l’influence et de la réputation d’une marque sur le web. On peut notamment citer :
- Les recherches de marque (brandées) : le volume de requêtes incluant le nom de l’entreprise est un excellent indicateur de sa notoriété. Plus on tape « Nike », « Amazon » ou « Lego » dans Google, plus ces marques sont installées dans l’esprit des consommateurs !
- Les mentions de marque : le nombre de citations (link et no-link) de la marque sur des sites tiers est aussi un signal fort de popularité. Que ce soit dans la presse, les blogs, les forums, les réseaux sociaux… Plus on parle de vous, mieux c’est !
- Les avis et notes clients : la quantité et la qualité des avis postés sur des plateformes tierces (TrustPilot, Google My Business…) renseignent sur la satisfaction et l’attachement des utilisateurs. Une marque avec de nombreux avis positifs inspirera forcément confiance.
- Les backlinks « naturels » : un site qui reçoit beaucoup de liens spontanés (non achetés ou échangés) est souvent signe d’une marque forte, qui suscite l’adhésion et le référencement. Surtout si ces liens viennent de sites réputés !
- L’engagement social : le nombre de followers, de likes, de partages et de commentaires sur les réseaux sociaux est un bon thermomètre de l’engouement autour d’une marque. Une marque qui fait réagir est une marque qui compte !
- Les signaux « offline » : des études montrent que Google prend aussi en compte des facteurs hors-ligne pour jauger l’autorité d’une marque : trafic en magasin, chiffre d’affaires, part de marché, citations dans les médias traditionnels… Une façon d’avoir une vision globale !
Vous l’aurez compris : l’idée est d’agréger une multitude de signaux « faibles » pour mesurer la brand authority de façon holistique, en croisant les sources et les canaux. Une approche qui va bien au-delà du SEO pur, en intégrant des dimensions marketing, communication, expérience client…
Autant de « briques » qui, assemblées, donnent un aperçu fidèle de la place qu’occupe une marque dans son écosystème et dans le cœur des consommateurs. Des indicateurs précieux pour Google, qui cherche à identifier les acteurs les plus reconnus et plébiscités sur chaque créneau… Pour mieux les propulser dans ses résultats !
9.4.2. Pourquoi Google mise sur les signaux de marque ?
Mais au fait : pourquoi diable Google s’intéresse-t-il autant à ces signaux de notoriété et de réputation, plutôt qu’aux bons vieux backlinks et mots-clés ? Eh bien pour plusieurs raisons, techniques et stratégiques.