Blog

Chapitre 9 : Évolution des algorithmes de recherche et mise à jour des stratégies SEO

par | Mar 22, 2024 | Livre SEO

Après avoir couvert en long, en large et en travers tous les aspects du SEO « classique », de la technique au contenu en passant par les liens, il est temps de se tourner vers l’avenir. Car le référencement naturel est tout sauf un long fleuve tranquille : c’est un domaine en perpétuelle ébullition, façonné par les évolutions technologiques, les nouveaux usages et les orientations des moteurs de recherche.

Pour espérer tirer son épingle du jeu sur le long terme, il ne suffit donc pas d’appliquer les bonnes pratiques d’aujourd’hui. Il faut aussi (et surtout) anticiper celles de demain, en gardant un œil sur les tendances émergentes et les signaux faibles qui dessinent le SEO du futur. Un véritable travail de veille et de prospective, qui nécessite de sortir de sa zone de confort pour explorer de nouveaux territoires.

C’est tout l’objet de ce chapitre : vous donner des clés pour décrypter les grandes mutations du Search et vous aider à faire évoluer vos stratégies en conséquence. Au menu, un tour d’horizon complet des tendances les plus structurantes du moment, de l’essor de la recherche vocale à l’impact grandissant de l’intelligence artificielle, en passant par la montée en puissance des facteurs UX ou encore l’émergence du SEO prédictif.

Chaque tendance sera analysée en profondeur, avec à la clé des explications sur :

  • Les fondamentaux : de quoi s’agit-il exactement ? Quels sont les concepts et les technologies clés à maîtriser ?
  • Les cas d’usage : comment cette tendance se matérialise-t-elle concrètement dans les SERPs ? Avec quels bénéfices pour les internautes ?
  • Les bonnes pratiques : quelles sont les techniques et les approches SEO les plus adaptées pour en tirer parti ? Comment optimiser ses pages et ses contenus en conséquence ?
  • Les outils et ressources : quels logiciels, extensions ou sources d’information peuvent vous aider à appréhender cette nouvelle donne ?

L’idée n’est pas de vous noyer sous un flot de buzzwords et de concepts fumeux, mais bien de vous donner des repères pragmatiques pour aborder le SEO de demain. Car au-delà des effets de mode, ces évolutions de fond vont durablement transformer notre façon de concevoir et de pratiquer le référencement naturel. Mieux vaut donc les comprendre et les intégrer dès maintenant !

Évidemment, difficile d’être exhaustif sur un sujet aussi vaste et mouvant. Le but ici est surtout de vous sensibiliser aux grandes dynamiques en cours et à leurs implications concrètes en termes de SEO. Charge ensuite à vous de creuser les aspects les plus stratégiques pour votre activité et de les décliner dans votre feuille de route.

Alors, prêt à plonger dans le grand bain du SEO de demain ? On attaque sans plus attendre avec LA tendance la plus disruptive du moment : l’essor fulgurant de la recherche vocale !

9.1. La recherche vocale

S’il ne fallait retenir qu’une seule « mega trend » Search de ces dernières années, ce serait sans nul doute celle-là : la démocratisation à grande vitesse de la recherche vocale. Dopées par les progrès de la reconnaissance de la parole et la multiplication des assistants vocaux, les requêtes « à la voix » connaissent en effet une croissance exponentielle depuis le début des années 2010. Au point de représenter aujourd’hui près de 20% des recherches sur Google !

Un vrai séisme pour le SEO, qui voit soudain une part significative de son trafic échapper aux traditionnels « liens bleus » pour atterrir directement dans des interfaces vocales type Google Assistant, Siri ou Alexa. Avec à la clé, de nouveaux codes, de nouveaux formats et de nouvelles opportunités de visibilité pour les marques et les éditeurs. Explications.

9.1.1. Les fondamentaux de la recherche vocale

Commençons par une définition : la recherche vocale, c’est tout simplement le fait d’effectuer une requête sur un moteur de recherche en utilisant sa voix plutôt qu’un clavier. Concrètement, l’utilisateur parle à son téléphone, sa montre, son enceinte connectée… Et le moteur lui renvoie une réponse directement à l’oral, sans passer par une interface graphique classique.

Cette interaction homme-machine repose sur la combinaison de plusieurs briques technologiques :

  • La reconnaissance automatique de la parole (RAP) : c’est la capacité du système à transcrire le signal vocal en texte, avec un haut niveau de précision. Les géants du web (Google, Apple, Amazon…) ont fait d’énormes progrès sur ce terrain, avec des taux de reconnaissance supérieurs à 95% dans de bonnes conditions.
  • Le traitement automatique du langage naturel (TALN) : une fois la requête transcrite, il faut être capable d’en extraire le sens et l’intention, malgré les ambiguïtés, les accents ou les tournures propres à l’oral. C’est là qu’interviennent les fameux algorithmes de Machine Learning spécialisés dans la compréhension du langage (BERT chez Google, LUIS chez Microsoft…).
  • La synthèse vocale : c’est la brique qui permet de générer une réponse audio à partir d’un texte, de la façon la plus naturelle possible. Là encore, les assistants vocaux ont fait d’immenses progrès ces dernières années, avec des voix de plus en plus réalistes et expressives (WaveNet pour Google, VocalID pour Amazon…).
  • La personnalisation : pour offrir une expérience fluide et pertinente, les systèmes de recherche vocale s’appuient aussi sur de nombreuses données contextuelles comme la géolocalisation, l’historique de navigation, les préférences de l’utilisateur… De quoi adapter les réponses au profil de chacun.

Combinés, ces différents éléments permettent de créer une interface conversationnelle complète entre l’humain et la machine, avec un fort niveau d’interactivité. Fini les listes de résultats à parcourir : l’utilisateur obtient directement la réponse à sa question, formulée le plus simplement possible à l’oral. Le fameux « One shot answer » !

Cerise sur le gâteau : cette expérience d’un nouveau genre est accessible très facilement, souvent « hands free », via des devices toujours plus nombreux : smartphones bien sûr (Google Assistant, Siri…), mais aussi enceintes connectées (Google Home, Amazon Echo…), TV, montres, voitures et même… réfrigérateurs ou miroirs !

On comprend mieux l’engouement des utilisateurs pour ce nouveau mode d’interaction avec le Search, et la croissance spectaculaire des usages qui en découle. Jugez plutôt :

  • 60% des possesseurs de smartphones utilisent régulièrement la recherche vocale (Source : MindMeld)
  • 1 recherche sur 5 sur Google est déjà vocale en 2022 (Source : Google)
  • 50% du ecommerce se fera via une interface vocale en 2025 (Source : Capgemini)
  • 55% des ménages devraient posséder une enceinte connectée en 2025 (Source : Canalys)

Et ce n’est qu’un début : selon les projections les plus optimistes, 50% de TOUTES les recherches pourraient être vocales en 2025-2030 ! De quoi faire de l’ombre au bon vieux clavier, même s’il n’est pas près de disparaître. Car la recherche vocale n’a pas vocation (pour l’instant) à remplacer totalement la recherche textuelle, mais plutôt à la compléter dans certains contextes et usages.

Typiquement, la voix est privilégiée pour des recherches :

  • Simples et factuelles, appelant une réponse courte et directe. Exemple : « Quel temps fera-t-il demain ? », « Qui a gagné le match France-Brésil ? », « Combien de calories dans une pomme ? »…
  • Locales et mobiles, liées à un besoin immédiat. Exemple : « Restaurants italiens près de moi », « Horaires de la pharmacie de garde », « Prochains départs de TER pour Marseille »…
  • Liées à la vie quotidienne et à des tâches chronophages. Exemple : « Mets un minuteur de 10min », « Ajoute des tomates à ma liste de courses », « Appelle maman sur WhatsApp »…
  • Dans des situations où l’usage des mains/yeux est difficile (conduite, cuisine, salle de bain…) ou tout simplement par flemme de taper !

La recherche « classique » reste en revanche préférée pour les requêtes complexes, nécessitant d’explorer plusieurs résultats ou de comparer différentes options. C’est notamment le cas en fin de parcours d’achat (comparatifs de produits, avis client…) ou pour des recherches très qualifiées (article scientifique, tutoriel pas à pas…).

Mais les progrès de l’IA conversationnelle font progressivement reculer cette frontière, en permettant des échanges de plus en plus poussés et nuancés avec les assistants vocaux. À terme, on peut imaginer pouvoir dialoguer avec son assistant sur des sujets pointus, un peu comme on le ferait avec un expert humain. Des perspectives vertigineuses pour le SEO !

9.1.2. Les impacts de la recherche vocale sur le SEO

Si la recherche vocale bouleverse à ce point l’expérience utilisateur, elle a aussi (et surtout) des répercussions majeures sur la façon de concevoir et de pratiquer le référencement naturel. Car les interfaces vocales comme Google Assistant ou Alexa ont leurs propres codes, leurs propres critères de pertinence… Et donc leurs propres « bonnes pratiques » SEO !

Pour bien comprendre ces enjeux, il faut revenir aux fondamentaux de la recherche vocale, et notamment à la façon dont les assistants génèrent leurs réponses. Contrairement aux idées reçues, celles-ci ne sortent pas de nulle part, mais sont extraites en grande partie… des pages web !

Plus précisément, lorsqu’un utilisateur pose une question à un assistant vocal, celui-ci va :

  1. Analyser la requête pour en comprendre le sens et l’intention, grâce au TALN (voir plus haut).
  2. Aller chercher dans son index (c’est-à-dire sa base de contenus web, la même que pour la recherche textuelle) les pages les plus à même de répondre à cette question.
  3. Au sein de ces pages, identifier les passages les plus pertinents, en s’appuyant sur des algorithmes de compréhension du langage type BERT.
  4. Extraire et reformuler ces passage sous forme d’une réponse courte et factuelle, adaptée à une restitution audio (la fameuse « position zéro »).
  5. Compléter éventuellement avec des éléments « riches » issus des données structurées, du Knowledge Graph ou d’autres sources (Wikipedia, partenaires…)

Vous l’aurez compris : loin d’être déconnectée du web, la recherche vocale s’appuie en grande partie sur des contenus éditoriaux « classiques » pour alimenter ses réponses. D’où l’importance stratégique de se positionner sur ces contenus, pour espérer être restitué vocalement par les assistants !

Mais attention : les critères qui font qu’une page sera jugée pertinente pour une requête vocale ne sont pas exactement les mêmes que pour une requête textuelle. La faute à plusieurs « spécificités » de l’expérience vocale :

  • Le format court et factuel des réponses : en vocal, l’utilisateur attend une réponse rapide et concise, qu’il pourra mémoriser facilement. Exit donc les longs passages argumentés ou les listes à puces : on privilégie les informations brutes, chiffrées, sans fioriture.
  • L’importance de la question précise posée : plus encore qu’à l’écrit, la recherche vocale doit coller au plus près de la formulation exacte de l’utilisateur, y compris lorsqu’elle est approximative ou hésitante. D’où l’importance du « question/answering » et de la correspondance stricte des mots-clés.
  • La dimension conversationnelle : un utilisateur vocal a souvent tendance à enchaîner les questions de précision sur un même sujet, un peu comme il le ferait avec un humain. Les assistants doivent donc être capables de gérer ce fil de discussion et d’y répondre de façon cohérente.
  • Le besoin de personnalisation : une recherche vocale est par définition plus « intime » et engageante qu’une recherche classique. L’utilisateur s’attend donc à ce que l’assistant le comprenne et lui réponde de façon adaptée à son profil, ses habitudes, sa géolocalisation…

Autant de facteurs qui viennent bouleverser la donne en termes de ranking vocaux, et rebattre les cartes du référencement ! Car obtenir le précieux sésame de la « position zéro » ne répond pas aux mêmes règles que se classer dans le top 10 des liens bleus. Cela demande d’optimiser ses pages sur des critères en partie différents.

Parmi les bonnes pratiques SEO les plus importantes pour favoriser son « éligibilité » vocale, on peut citer :

  • Travailler le format question/réponse : structurer son contenu autour de questions précises et de réponses courtes, factuelles, en adéquation directe. Le moins de « blabla » possible !
  • Optimiser pour les mots-clés « conversationnels » : tenir compte des spécificités du langage parlé dans le choix des expressions-clés (tournures familières, phrases incomplètes, enchaînements…).
  • Soigner sa sémantique et ses données structurées : utiliser un balisage précis (schema.org, données tabulaires…) pour aider les moteurs à identifier les informations clés à extraire vocalement.
  • Proposer des contenus « actionnables » : privilégier les informations concrètes et les conseils pratiques, qui répondent à un besoin immédiat de l’utilisateur (recettes, tutoriels, avis produit…).
  • Miser sur les contenus locaux et « du quotidien » : adresses, horaires, météo, actualités locales… Tout ce qui facilite la vie de l’utilisateur mobile au jour le jour.
  • Travailler son autorité et sa réputation : plus que jamais, Google et cie s’appuient sur des signaux de confiance « offline » (avis, points d’intérêt, présence sociale…) pour départager les contenus vocaux les plus légitimes.
  • Proposer une expérience « fluide » sur tous les devices : temps de chargement ultrarapide, affichage responsive, accessibilité… Tout ce qui favorise une navigation

    sans couture, quelle que soit la situation d’usage (smartphone, enceinte connectée, voiture…).

    L’enjeu pour les marques et les éditeurs est donc de repenser leur stratégie de contenu en profondeur, pour l’adapter aux codes et aux usages de la recherche vocale. Il ne s’agit pas de faire table rase de son existant, mais de le faire évoluer progressivement vers plus de granularité, d’instantanéité et de conversation.

    Un chantier d’ampleur, qui ne se limite pas à l’optimisation SEO, mais touche aussi au ton, au style, à l’architecture de l’information… Et à la façon de penser la relation client dans son ensemble. Car c’est bien de cela qu’il s’agit : construire une vraie relation de proximité et de confiance avec ses utilisateurs, pour devenir leur interlocuteur privilégié au quotidien. La voix n’est qu’un moyen parmi d’autres d’y parvenir !

    9.1.3. Les opportunités offertes par la recherche vocale

    Au-delà des enjeux « défensifs » (ne pas perdre en visibilité sur un canal en plein boom), la recherche vocale ouvre aussi de formidables opportunités pour les acteurs du web. Nouvelles possibilités d’exposition, nouveaux points de contact, nouveaux leviers de conversion… Les assistants vocaux regorgent de promesses pour qui sait les saisir !

    En premier lieu, la voix permet d’accéder à une audience ultra-qualifiée et engagée, dans des moments d’usage inédits. Aujourd’hui, 75% des possesseurs d’enceintes connectées utilisent leur assistant au moins une fois par jour, et plus de la moitié plusieurs fois par jour (étude Loopvoc/CSA). Autant de prises de parole qui sont autant d’occasions d’entrer en contact avec sa cible, de façon fluide et naturelle.

    Mieux : en s’intégrant au cœur du quotidien des utilisateurs, dans leur salon, leur cuisine ou leur voiture, la voix permet de créer une proximité et une intimité nouvelles avec sa marque. Une approche « conversationnelle » qui humanise la relation, favorise la mémorisation et in fine… la conversion ! Exemple : « Alexa, commande-moi un Coca ! »

    Autres avantages de la recherche vocale :

    • Un meilleur taux de clic/d’engagement : lorsqu’un utilisateur vocal obtient une réponse pertinente, il a tendance à interagir beaucoup plus avec (questions de suivi, demande de précisions, clic vers le site…). De quoi doper mécaniquement son taux de conversion.
    • Une captation du trafic de marque : grâce à la personnalisation, les assistants vocaux sont souvent « biaisés » en faveur des apps et services déjà utilisés par l’internaute. Une façon de capter du trafic hautement qualifié, déjà dans une logique de fidélité.
    • Une « présence » même sans site vocal : un site non optimisé pour la voix peut quand même tirer son épingle du jeu, en apportant la réponse à des questions génériques. À condition de travailler son SEO « classique » : rich snippets, données tabulaires, page autorité…
    • Une visibilité potentiellement forte : pour certaines requêtes, Google et cie « forcent » l’affichage de contenus vocaux types « Featured Snippets », y compris quand l’utilisateur est sur desktop. Un bonus de visibilité loin d’être négligeable !

    Mais au-delà, la voix ouvre surtout la voie à une multitude de nouveaux « display ads » et points de contact avec sa cible. En utilisant les kits de développement (SDK) des assistants vocaux, il est en effet possible de créer des expériences sur mesure, parfaitement intégrées au flux conversationnel. On parle de « Voice Apps ».

    Quelques exemples d’applications possibles :

    • Skill Alexa ou Action Google Assistant pour apporter un contenu complémentaire à une requête vocale (ex : recette de cuisine, horoscope, quiz…).
    • Jingle publicitaire ou « voice ad » inséré en début/fin de réponse vocale, sur le modèle des « pré-roll » YouTube.
    • Recommandation de produits alimentée par un catalogue produits, dans une logique de « voice commerce ».
    • Service après-vente et support client intégralement géré par un assistant vocal, y compris pour le suivi de commande, le SAV…
    • Expériences ludo-éducatives à destination des enfants : jeux, contes, chansons…
    • Dispositif de « brand utility » aidant les utilisateurs au quotidien : aide au réveil, recettes healthy, suivi d’entraînement sportif…

    Bref, tout est possible ou presque, pour peu qu’on ait les ressources techniques et éditoriales pour développer ce genre de modules. Un investissement conséquent (surtout les premières années), mais un moyen imparable de se positionner sur le device préféré des utilisateurs, celui qu’ils ont choisi pour se simplifier la vie !

    Bien sûr, tout l’enjeu est de trouver le bon équilibre entre utilité, engagement et discrétion, pour ne pas être perçu comme intrusif ou « spammeur ». Comme en SEO classique, la qualité et la pertinence du contenu restent les meilleurs atouts pour s’attirer durablement les faveurs des assistants vocaux… Et de ceux qui les écoutent !

    Un dernier usage de la voix, plus prospectif mais très prometteur : le « Voice SEO On-SERP », c’est-à-dire l’optimisation directement dans les résultats de recherche, via des contenus mixtes text-to-speech. Concrètement, il s’agirait pour Google (pour ne citer que lui) d’intégrer des réponses audio directement dans ses SERP web ou mobile, en complément des liens et rich snippets classiques.

    Une extension assez naturelle du « Voice SEO », qui permettrait aux sites de se positionner à la fois par l’écrit et par l’oral sur les requêtes les plus stratégiques. Avec à la clé, un nouveau terrain de jeu SEO pour expérimenter des formats toujours plus immersifs et interactifs !

    On le voit, les opportunités ouvertes par la recherche vocale sont immenses, pour tous les acteurs du web. Mais elles impliquent un vrai changement de mindset, une capacité à repenser son approche du Search Marketing en profondeur. SEO, content, social, UX… : c’est toute la chaîne de production digitale qui est à réinventer !

    Un défi passionnant, qui ne fait que commencer. Car si la voix représente déjà un levier majeur d’acquisition et de fidélisation, elle n’en est encore qu’à ses balbutiements. Avec les progrès constants du Machine Learning et du NLP, on peut parier sur des agents conversationnels toujours plus « intelligents », capables de tenir des conversations de plus en plus naturelles et pertinentes avec les utilisateurs.

    De quoi faire de la voix bien plus qu’un « gadget » ou un moteur de recherche bis : une vraie porte d’entrée vers le web, au même titre que les navigateurs ou les apps mobiles. Et donc, un incontournable dans la stratégie digitale de toutes les marques et tous les éditeurs.

    Alors, prêt à faire entendre votre voix dans le monde merveilleux du Search ?

    9.2. L’impact de l’intelligence artificielle sur le SEO

    S’il est un autre phénomène qui bouscule en profondeur le monde du Search, c’est bien la montée en puissance de l’intelligence artificielle (IA). Depuis une dizaine d’années, les progrès spectaculaires du Machine Learning et du Deep Learning ont en effet révolutionné la façon dont les moteurs de recherche comprennent, traitent et restituent l’information.

    Avec des répercussions majeures sur les algorithmes de ranking, toujours plus « intelligents » et donc complexes à appréhender pour les experts SEO. Fini le bon vieux PageRank et ses centaines de facteurs ! Place à des systèmes « auto-apprenants », capables d’analyser le sens profond des contenus et d’en évaluer la pertinence de façon quasi-autonome.

    Un changement de paradigme qui oblige les référenceurs à revoir leur approche de fond en comble, et à intégrer l’IA au cœur de leurs stratégies d’optimisation. Car dans un monde où les machines « comprennent » de mieux en mieux le langage naturel, le SEO ne peut plus se contenter de ruser avec les mots-clés et les balises. Il doit avant tout produire du contenu de qualité, susceptible de satisfaire pleinement les utilisateurs !

    Petit tour d’horizon des principaux impacts de l’IA sur le SEO, et des bonnes pratiques à mettre en œuvre pour en tirer le meilleur parti.

    9.2.1. RankBrain, BERT et les autres : les algorithmes IA de Google

    Impossible de parler d’intelligence artificielle dans le Search sans évoquer Google, qui est incontestablement le pionnier et le leader dans ce domaine. Depuis le milieu des années 2010, le géant de Mountain View a en effet intégré l’IA au cœur de son système de ranking, via une série d’algorithmes révolutionnaires.

    Le premier d’entre eux, et le plus connu, est sans nul doute RankBrain. Lancé en 2015, ce « coprocesseur » utilise le Deep Learning pour mieux comprendre les requêtes des internautes, et leur apporter des réponses toujours plus pertinentes. Son principe : analyser les mots de la requête, mais aussi et surtout leur contexte sémantique, pour en saisir l’intention profonde.

    Concrètement, RankBrain va s’appuyer sur des technologies de Natural Language Processing (NLP) pour « décortiquer » chaque requête sous toutes ses coutures :

    • Identification des entités nommées : de qui/quoi parle-t-on exactement ?
    • Désambiguïsation des termes polysémiques grâce au contexte.
    • Détection des synonymes, des périphrases, des tournures « naturelles ».
    • Prise en compte des fautes d’orthographe ou des abréviations.
    • Analyse des cooccurrences et du champ lexical.
    • Etc.

    L’idée est de transcender la simple correspondance mot à mot, pour accéder au « sens caché » derrière les mots. Un vrai saut qualitatif par rapport aux algorithmes traditionnels, qui se contentaient de matcher mécaniquement les mots-clés de la requête avec ceux des pages web !

    Prenons un exemple. Imaginons la requête « meilleur smartphone pas cher ». Un algorithme « bête et méchant » se contenterait de sortir les pages qui contiennent exactement cette expression, ou à la rigueur des variantes proches. RankBrain, lui, va plutôt raisonner en termes d’intention, de besoin utilisateur. Et comprendre qu’ici, l’internaute recherche :

    • Un comparatif (le « meilleur »)
    • De téléphones mobiles récents (les « smartphones »)
    • A un prix abordable (le fameux « pas cher »)

    Charge ensuite à l’algo d’aller chercher les pages les plus à même de répondre à ce besoin, même si elles ne contiennent pas l’expression « meilleur smartphone pas cher ». Par exemple un article intitulé « TOP 10 des téléphones à moins de 300€ », ou encore « Quel smartphone choisir quand on a un petit budget ? ».

    C’est toute la force de RankBrain : sa capacité à faire le lien entre des requêtes « différentes » en surface, mais similaires sur le fond. D’extrapoler le besoin de l’utilisateur pour lui apporter la réponse la plus adaptée, au-delà des mots qu’il a saisis. Bref, de rendre les résultats plus « intelligents » et intuitifs !

    Un bond en avant majeur pour l’expérience utilisateur, mais aussi un vrai challenge pour les experts SEO. Car avec RankBrain, difficile de « tricher » avec les mots-clés et autres techniques classiques d’optimisation. La seule façon de tirer son épingle du jeu, c’est de produire des contenus « profonds », riches en sens, en diversité lexicale et en valeur ajoutée pour l’utilisateur. Facile à dire…

    Et ce n’est qu’un début ! Depuis RankBrain, Google a intégré toujours plus d’IA dans ses algorithmes, avec une accélération notable ces dernières années. On peut notamment citer :

    • BERT (2019) : un modèle de Deep Learning encore plus poussé, capable de saisir le contexte d’un mot dans une phrase pour en affiner le sens. Exemple : différencier « je veux un verre d’eau » et « ce vase est en verre », grâce à l’analyse des termes adjacents.
    • MUM (2021) : un nouveau « multimodal system » 1000 fois plus puissant que BERT, qui peut comprendre et générer du contenu dans 75 langues différentes ! Avec la promesse de faire le lien entre des informations de sources et de formats très variés (web, images, vidéos…) pour répondre à des requêtes ultra-complexes.
    • SMITH (2022) : un outil spécialisé dans l’analyse des contenus longs (>10 pages), pour en extraire les passages les plus pertinents par rapport à une requête. Objectif : identifier les « documents d’autorité » les plus exhaustifs sur un sujet donné.
    • Pathways (2022) : un modèle d’IA révolutionnaire, capable de réaliser plus de 100 000 tâches différentes, en transférant les connaissances de l’une à l’autre. Cela ouvre la voie à des agents conversationnels « génériques », pouvant répondre à n’importe quelle question dans n’importe quel domaine !

    Autant d’innovations qui dessinent le visage du SEO de demain : toujours plus « intelligent », multiforme et centré sur le besoin utilisateur. Avec à la clé, une forte pression sur les contenus pour être toujours plus riches, diversifiés et « sémantiquement denses ». Un défi de tous les instants pour les créateurs !

    9.2.2. Les autres acteurs de l’IA dans le Search

    Bien sûr, Google n’est pas le seul à miser sur l’IA pour améliorer son moteur de recherche. Tous ses grands concurrents ont aussi investi massivement dans le Machine Learning et le NLP ces dernières années, avec des résultats plus ou moins convaincants. Petit tour d’horizon des principales initiatives en la matière.

    Commençons par Microsoft, qui est sans doute le plus avancé dans ce domaine après Google. Depuis 2016, le géant de Redmond a en effet intégré l’IA au cœur de son moteur Bing, via une série d’algorithmes maison baptisés « AI at Scale ». Ceux-ci s’appuient notamment sur :

    • LUIS (Language Understanding Intelligent Service) : un outil de NLP « self-service », qui permet de créer facilement des modèles de compréhension du langage adaptés à un domaine ou une tâche spécifique. Idéal pour les chatbots et autres agents conversationnels !
    • Turing NLG (Natural Language Generation) : un modèle de Deep Learning capable de générer du texte « humain », cohérent et fluide, à partir d’une simple amorce. Une technologie impressionnante, qui ouvre la voie à des applications très variées : rédaction automatique d’articles, de résumés, de réponses…
      • Bing Entity Search : un « knowledge graph » ultraperformant, qui identifie et relie entre elles des millions d’entités (personnes, lieux, événements…) à partir du web. De quoi enrichir considérablement les résultats de recherche, en proposant des informations complémentaires sur le sujet.

      Toutes ces briques sont combinées au sein du moteur Bing pour en améliorer l’expérience utilisateur au quotidien. En 2020, Microsoft revendiquait ainsi plus de 70% de résultats « améliorés par l’IA » (rich snippets, passages mis en avant, suggestions…), contre 50% un an plus tôt. De quoi donner du fil à retordre à Google !

      Autre acteur majeur de l’IA dans le Search : Baidu, le Google chinois. Depuis le milieu des années 2010, le géant de Pékin multiplie les investissements dans ce domaine, avec une approche très « mobile-first ». Son fer de lance : l’algorithme ERNIE (Enhanced Representation through kNowledge IntEgration), un modèle de Deep Learning ultraperformant pour la compréhension du langage naturel et le traitement des images.

      Grâce à ERNIE, Baidu est notamment capable de proposer :

      • Des résumés automatiques d’articles ou de vidéos, avec mise en avant des passages clés.
      • Des réponses en langage naturel à des questions complexes, y compris à l’oral (recherche vocale).
      • Des recommandations personnalisées basées sur l’historique et le profil de l’utilisateur.
      • La reconnaissance d’images et de vidéos pour des requêtes visuelles.

      Des fonctionnalités très poussées, qui montrent que l’IA n’est plus l’apanage des géants américains. Surtout, Baidu met un point d’honneur à rendre ses technologies accessibles à tous, via une plateforme ouverte baptisée Baidu Brain. De quoi démocratiser l’usage de l’IA dans le Search… Et pourquoi pas bousculer la domination de Google à terme ?

      Enfin, impossible de parler d’IA et de Search sans évoquer Yandex, le leader russe des moteurs de recherche. Depuis quelques années, la firme moscovite mise à fond sur le Machine Learning pour améliorer son algorithme et offrir des fonctionnalités innovantes à ses utilisateurs. Son arme fatale : MatrixNet, une technologie unique de « ranking dynamique », qui ajuste en temps réel les facteurs de pertinence en fonction du besoin spécifique de l’utilisateur.

      Concrètement, MatrixNet va analyser en profondeur chaque requête (mots-clés, géolocalisation, historique…) pour en déduire l’intention la plus probable. Puis adapter son classement en donnant plus ou moins de poids à certains critères : fraîcheur du contenu, présence de tel ou tel mot-clé, proximité géographique… Une façon de « coller » au plus près des attentes, et donc de gagner en pertinence.

      Yandex utilise aussi l’IA pour :

      • Affiner la détection des spams et des contenus de faible qualité.
      • Personnaliser les résultats en fonction du profil et du niveau d’expertise de l’utilisateur.
      • Proposer des formats « intelligents » (textes restructurés, présentation sous forme de questions/réponses…).

      Autant d’innovations qui montrent que la bataille de l’IA fait rage dans le monde entier, et pas seulement en Californie. De quoi redistribuer les cartes du Search mondial dans les années à venir ?

      9.2.3. Les bonnes pratiques SEO à l’heure de l’IA

      On l’a vu, l’intégration croissante de l’IA dans les moteurs de recherche bouleverse en profondeur la donne pour le SEO. Exit les techniques « à l’ancienne » ! Pour espérer tirer son épingle du jeu, il faut désormais produire des contenus capables de convaincre des algorithmes ultra-perfectionnés, qui « raisonnent » presque comme des humains.

      Alors, comment adapter sa stratégie SEO à cette nouvelle réalité ? Voici quelques bonnes pratiques à mettre en œuvre dès maintenant.

      1. Créer du contenu « sémantiquement riche »

      Pour séduire RankBrain, BERT et les autres, l’essentiel est de proposer du contenu « dense en sens », qui aborde un sujet en profondeur, sous tous ses aspects. L’idée est d’utiliser un maximum de concepts, d’entités et de relations sémantiques pour « prouver » son expertise et couvrir tous les angles possibles autour d’un mot-clé.

      Concrètement, cela implique de :

      • Viser des contenus longs et exhaustifs (>1500 mots), façon « pillar pages ».
      • Utiliser un vocabulaire riche et varié, avec de nombreux synonymes et termes connexes.
      • Structurer son contenu de façon logique, avec une progression naturelle des idées.
      • Illustrer son propos avec des exemples, des données chiffrées, des citations…
      • Aborder les questions et objections les plus fréquentes autour du sujet.
      • Mettre en avant son expertise unique grâce à des avis tranchés et du contenu original.

      Bref, il s’agit de créer les contenus les plus « autoritatifs » possibles sur sa thématique, ceux qui feront référence pour les internautes (et donc les moteurs). Un travail de longue haleine, qui nécessite de vrais savoir-faire éditoriaux…Et de solides connaissances sur le sujet !

      1. Optimiser pour les intentions de recherche

      Avec les progrès du NLP, les moteurs sont de plus en plus capables de saisir l’intention derrière chaque requête, au-delà des simples mots-clés. Pour bien se positionner, il est donc capital d’identifier ces fameuses intentions et d’y répondre le plus précisément possible.

      Comment faire ? La méthode la plus efficace reste d’analyser manuellement les SERPs pour chaque requête clé, et d’en déduire le « search intent » le plus probable. On distingue généralement 4 grands types d’intentions :

      • Informationnelle : l’utilisateur cherche à s’informer, se documenter sur un sujet (requêtes type « qu’est-ce que… », « comment faire pour… »).
      • Navigationnelle : l’utilisateur cherche à accéder à un site ou une page en particulier (requêtes type « facebook », « youtube »…).
      • Transactionnelle : l’utilisateur cherche à réaliser une action en ligne : achat, réservation, inscription… (requêtes type « acheter », « télécharger »…).
      • Commerciale : l’utilisateur cherche à comparer des produits ou services avant un achat (requêtes type « meilleur… », »comparatif »…).

      Une fois cette intention identifiée, il « suffit » de créer un contenu parfaitement adapté, qui répond exactement au besoin exprimé. Par exemple, pour une requête informationnelle, on misera sur un guide complet et pédagogique. Pour une requête transactionnelle, on proposera une landing page ultra-convaincante avec des avis clients et un tunnel de conversion optimisé.

      Facile à dire… Car dans les faits, beaucoup de requêtes sont ambiguës ou recouvrent plusieurs intentions à la fois. Exemple : « smartphone samsung » peut être une requête navigationnelle (accès au site de la marque), informationnelle (recherche d’infos sur les modèles) ou transactionnelle (achat d’un mobile) selon le contexte. Dur de faire un choix !

      D’où l’intérêt d’utiliser aussi des outils « d’intention mapping » qui vont automatiser cette catégorisation à grande échelle. Des outils comme Ahrefs, SEMrush ou Moz Pro proposent désormais des fonctionnalités avancées d’analyse des SERPs, avec des recommandations clés en main pour adapter son contenu à l’intention dominante. Une solide base de départ !

      1. Travailler sa sémantique et ses entités

      Pour aider les algorithmes à « comprendre » encore mieux le sens de vos pages, rien de tel que d’utiliser un balisage sémantique le plus précis possible. L’idée est de structurer au maximum ses données pour leur donner du relief et du liant, façon « web sémantique ».

      Concrètement, cela implique de :

      • Soigner sa structure HTML avec les balises adéquates : hX pour la hiérarchie des titres, <nav> pour le menu, <article> pour chaque bloc de contenu autonome, <strong> pour les mots clés… Un balisage propre et standards-compliant est la base !
      • Implémenter les microdonnées Schema.org qui vont « typer » finement vos contenus : Article, Event, Product, Recipe, Review… Et spécifier leurs propriétés (dates, lieux, prix…). Un must absolu pour étoffer vos rich snippets !
      • Utiliser les attributs « alt » et « title » pour donner du sens à vos images et vos liens, au-delà de la simple description. Par exemple : <a href= »smartphone-samsung.html » title= »Galaxy S10 : avis et comparatif »>En savoir plus</a>.
      • Relier ses contenus via des liens explicites, façon maillage interne. Exemple : « la recette du meilleur café glacé » qui pointe vers « comment faire un café glacé avec une machine Nespresso », qui pointe vers « test et avis sur la machine Nespresso Latissima One », etc. Une façon de tisser sa toile sémantique !
      • Mettre en avant ses « entités piliers » (marques, produits, personnes…) de façon cohérente sur l’ensemble de son site : pages dédiées, catégories, tags, facettes, taxonomies spécifiques… Plus un concept est clairement identifié et structuré, mieux il sera compris par les algos.

      L’idéal est même d’aller plus loin en s’intégrant aux « Knowledge Graphs » des moteurs, c’est-à-dire à leurs immenses bases de connaissances qui relient les entités du web entre elles. Un travail de longue haleine qui suppose d’ouvrir ses données de façon normée et de les faire « certifier » par des sources faisant autorité.

      Exemple : si vous êtes une marque de vêtements, vos données produits pourront être liées à celles de Google Manufacturer Center, qui les relient elles-mêmes à celles issues du web. In fine, Google aura une vision complète de votre catalogue, de vos best-sellers, de vos avis clients… Et pourra les mettre en avant de façon très riche dans ses résultats !

      1. Optimiser l’expérience et l’engagement

      Autre grandes tendance poussée par l’IA : la prise en compte croissante des signaux « utilisateurs » pour évaluer la qualité d’un contenu. Temps passé sur la page, scroll, clics, interactions, partages… Autant de métriques scrutées par RankBrain et ses petits camarades pour jauger la satisfaction des internautes… Et leur en redonner plus !

      En clair, les algos vont analyser en temps réel le comportement des utilisateurs sur votre site pour en déduire l’intérêt et la pertinence de vos pages. Un article beaucoup lu et partagé aura forcément plus de valeur à leurs yeux qu’un contenu qui fait fuir tout le monde ! Une logique finalement assez darwinienne : seuls les contenus les plus « fit » survivent.

      Pour booster son « engagement SEO », quelques bonnes pratiques s’imposent donc :

      • Soigner le design et l’ergonomie de ses pages pour favoriser une navigation fluide et intuitive. Miser sur des visuels attractifs, du contenu aéré, des CTA clairs… Tout ce qui incitera l’internaute à rester et interagir !
      • Optimiser la vitesse de chargement de son site, en particulier sur mobile. Car un contenu lent à s’afficher aura beau être génial… personne ne restera pour le savoir ! Objectif : un Time To First Byte inférieur à 200 ms.
      • Travailler la « rétention » de son audience avec du contenu connexe de qualité, bien mis en avant : articles similaires, produits complémentaires, modules « Vous aimerez aussi »… L’idée est de prolonger au maximum les sessions.
      • Faciliter le partage social avec des boutons bien visibles et des messages pré-remplis. Car chaque partage renforce la légitimité de votre contenu aux yeux des algos… et amène du trafic qualifié en prime !
      • Inciter aux commentaires et aux questions des internautes, qui sont autant de preuves d’intérêt et d’engagement. On peut même aller plus loin en créant de vraies communautés sur les réseaux sociaux, voire un forum sur son site.
      • Pousser les inscriptions à sa newsletter/ses alertes pour créer une audience « captive », qui reviendra régulièrement sur le site. Ces visiteurs récurrents sont une mine d’or en termes de signaux !
      • Proposer des contenus interactifs « à forte valeur ajoutée » : outils, simulateurs, quizz… De vrais « pièges à clics » qui augmentent mécaniquement le temps passé et stimulent les méninges !

      L’idée, vous l’aurez compris, est de créer un véritable « écosystème » éditorial autour de son contenu, qui incitera naturellement les utilisateurs à consommer, interagir et revenir. Un cercle vertueux engagement <> SEO qui ne demande qu’à s’auto-entretenir !

      1. Miser sur les contenus « aspirationnels »

      Enfin, dernière piste d’optimisation IA-friendly : miser sur les contenus « aspirationnels », ceux qui répondent aux envies profondes et aux projets des internautes. Des contenus qu’on consulte pour rêver, s’inspirer, se projeter… et qui génèrent donc naturellement de l’engagement et des signaux positifs !

      On pense notamment à :

      • Des guides pratiques et tutorials pour apprendre une compétence : « Comment réussir son premier marathon », « Les 10 étapes pour créer son entreprise »…
      • Des pages « inspirations » et mood boards pour susciter le désir : « 25 idées déco pour un mariage bohème chic », « Les destinations tendances pour un road trip en van »…
      • Des témoignages de réussite et success stories pour créer de l’identification : « Comment j’ai perdu 20 kilos en 6 mois », « Ma reconversion de banquier à brasseur de bière »…
      • Des sélections et tops thématiques pour aiguiller les choix : « Notre sélection des 10 meilleurs romans à suspense », « Le top 15 des cadeaux high tech pour Noël »…
      • Des jeux et challenges ludiques pour stimuler la curiosité : « Quiz : quel vin correspond à votre personnalité ? », « 7 recettes surprenantes à base d’avocat : saurez-vous les deviner ? »…

      L’objectif est vraiment de « tirer vers le haut », en proposant du contenu qualitativement supérieur, qui contribue à épanouir et transformer son audience. Une approche ambitieuse, qui demande une vraie vision éditoriale… Mais qui est aussi gage d’une relation intense et durable avec ses utilisateurs. Le Graal de tout bon marketeur web !

      On l’aura compris à travers ces quelques bonnes pratiques : pour performer en SEO à l’heure de l’IA, il faut avant tout miser sur l’humain ! L’humain dans le contenu, avec des sujets riches de sens, d’émotions et de valeurs. Et l’humain dans l’usage, avec des signaux et des interactions « vraies », qui prouvent l’utilité et l’attractivité d’un site dans la vie des gens. Tout le reste est littérature… Ou plutôt codage !

      9.2.4. Les outils SEO à l’ère de l’IA

      Vous l’aurez compris, le SEO à l’ère de l’IA n’a plus grand chose à voir avec le référencement à « papa » des années 2000. Fini le temps béni où il suffisait de bourrer ses pages de mots-clés et de backlinks douteux pour caracoler en tête des résultats ! Aujourd’hui, pour tirer son épingle du jeu, il faut jouer avec des algorithmes ultra-complexes, capables d’analyser le sens profond des contenus et le comportement des utilisateurs.

      Autant dire que les outils et méthodes doivent suivre ! Car scruter ses positions et trafiquer ses balises META ne suffira plus. Pour rester dans la course, les SEO doivent eux aussi monter en compétences « IA » et se doter d’outils d’analyse toujours plus pointus.

      Petit tour d’horizon des nouvelles solutions qui « boostent » le SEO à l’heure des algorithmes intelligents.

      1. Les outils de compréhension sémantique

      Pour optimiser son contenu, encore faut-il comprendre comment Google & cie l’analysent et l’interprètent. C’est tout l’enjeu des outils de « compréhension sémantique », qui décortiquent vos contenus (et ceux de vos concurrents) pour en révéler le sens profond et les concepts clés.

      Parmi les plus performants du moment, on peut citer :

      • Surfer SEO : un outil qui analyse les pages du TOP 10 sur vos mots-clés cibles pour en extraire les cooccurrences, les entités et la structuration « gagnantes ». Une sorte de modeling inversé des algorithmes Google, pour en tirer les critères d’optimisation !
      • MarketMuse : même principe, mais avec une couche d’IA en plus pour « prédire » le contenu idéal sur une thématique donnée, en fonction des intentions de recherche. L’outil va même jusqu’à vous suggérer des paragraphes « sur mesure ».
      • Alli AI : un assistant rédactionnel nouvelle génération, qui analyse la sémantique de vos contenus (et ceux de vos concurrents) pour vous aider à créer des pages hyper-pertinentes et exhaustives. Avec comparatif avant/après pour mesurer vos progrès !
      • CognitiveSEO : célèbre pour son toolset de link building, CognitiveSEO propose aussi un outil d’analyse sémantique très poussé, capable de cartographier les entités et cooccurrences sur tout un secteur. Idéal pour trouver des angles morts.

      Le point commun de ces outils ? Utiliser le NLP pour « simuler » le raisonnement des moteurs et vous aider à créer du contenu optimisé pour leurs algorithmes. Une façon de mettre toutes les chances de son côté !

      1. Les outils de Content Intelligence

      On l’a vu, l’une des clés pour performer en SEO à l’heure de l’IA est de produire des contenus ultra-riches et « dense en valeur ». Problème : comment quantifier concrètement cette richesse et cette densité, pour objectiver ses efforts ? C’est là qu’intervient le Content Intelligence et ses métriques « nouvelle génération ».

      Parmi les outils les plus innovants dans ce domaine, on trouve notamment :

      • Clearscope : une plateforme d’optimisation de contenu « data-driven », qui analyse les pages du TOP 10 sur une requête pour en tirer les mots-clés, les concepts et la structure les plus pertinents. Chaque nouvel article est ensuite noté et optimisé en fonction de ces critères.
      • Frase : même principe, avec en plus un outil puissant de Content Brief qui va vous aider à créer vos guidelines rédactionnelles. Au menu : questions les plus fréquentes, entités à aborder, sources à citer… De quoi cadrer vos auteurs !
      • Marketmuse : l’outil propose un indicateur unique de « Content Score », qui évalue la qualité d’un contenu sur 4 piliers : la compétitvité (par rapport au TOP 10), la compréhensivité, la lisibilité et le ciblage des mots-clés. Un excellent baromètre !
      • Yooda Insight : l’outil français permet de « benchmarker » son Content Score (une note globale de qualité) par rapport à la concurrence. Idéal pour monitorer sa progression dans le temps et ajuster sa prod en fonction.

      En analysant finement les contenus les mieux classés, ces outils permettent de faire un pas de géant dans la « direction éditoriale SEO ». Ils donnent des metrics concrètes et chiffrées pour guider ses efforts… Et ne plus naviguer à vue !

      1. Les outils de SEO prédictif

      Autre grand challenge du SEO à l’ère de l’IA : réussir à prédire les futures tendances et opportunités de trafic, pour créer les contenus au bon moment et sur les bonnes thématiques. Un exercice hautement stratégique, qui fait la part belle aux algorithmes de machine learning… Et aux outils de SEO « prédictif » !

      Parmi les acteurs les plus en pointe dans ce domaine, on peut citer :

      • SEMrush Sensor : un outil qui détecte en temps réel les variations de ranking sur différentes thématiques et localités, pour repérer de possibles mises à jour d’algorithme. Utile pour anticiper les changements !
      • Ahrefs Keyword Explorer : en plus des volumes de recherche classiques, l’outil prédit le trafic potentiel qu’on peut espérer pour chaque mot-clé avec ses « Traffic estimations ». Une façon de prioriser sa prod !
      • Glimpse : cette plateforme utilise le NLP pour analyser quotidiennement des millions de contenus et y détecter les « signaux faibles » annonciateurs de tendances émergentes. But : créer du contenu avant les autres !
      • AnswerThePublic : un outil visuel qui collecte les requêtes liées à un univers pour y détecter les intentions dominantes et les questions récurrentes. Parfait pour identifier de nouveaux sujets « aspirationnels » !

      En combinant l’analyse des tendances passées, des signaux temps réel et des modèles prédictifs, ces solutions donnent un vrai coup d’avance aux SEO… Et leur permettent d’être toujours au bon endroit au bon moment ! Un atout majeur à l’heure de l’IA.

      1. Les assistants rédactionnels boostés à l’IA

      Enfin, qui dit révolution de l’IA dans les moteurs dit aussi… révolution de l’IA dans la création de contenus ! Car si les algos sont capables de « lire entre les lignes » de vos pages, rien ne vous empêche d’utiliser leurs petits frères pour vous aider à écrire. Bienvenue dans le monde merveilleux des assistants rédactionnels nouvelle génération !

      Plusieurs startups et grands groupes se sont engouffrés dans la brèche ces dernières années, avec des solutions de plus en plus bluffantes :

      • GPT-3 (Generative Pre-trained Transformer 3) : développé par OpenAI, c’est LE modèle de référence pour la génération de texte. Capable de produire des paragraphes ultra-fluides et cohérents sur à peu près n’importe quel sujet, à partir d’un simple prompt.
      • Jasper.ai : basé sur GPT-3, cet assistant écrit pour vous des articles, des posts de blog et même des scripts marketing très convaincants. Idéal pour déléguer les contenus « de fond » et se concentrer sur les angles différenciants !
      • CopySmith : dans la même veine, cette plateforme génère à la volée des titres, des accroches, des descriptions produits et autres éléments marketing à fort impact. De quoi booster sa prod !
      • Trinka AI : plutôt qu’écrire des contenus entiers, cet outil se focalise sur la relecture, la suggestion et l’enrichissement de vos phrases, pour gommer les scories et améliorer le style. Un parfait « bêta-lecteur » !

      Évidemment, ces solutions ne remplaceront jamais complètement la « patte humaine » et la vraie créativité éditoriale. Mais elles peuvent sérieusement booster votre productivité et la richesse de vos pages… Tout en respectant les codes rédactionnels nécessaires pour plaire aux moteurs. Une sorte de « steroïde SEO » qui promet de beaux jours à la profession !

9.3. L’impact croissant des signaux UX et des « Core Web Vitals »

Depuis quelques années, Google martèle un message clair : l’expérience utilisateur (UX) est un critère de ranking à part entière, au même titre que le contenu ou les liens. Concrètement, cela veut dire que les pages les plus « engageantes », intuitives et rapides à charger seront favorisées dans les résultats de recherche, car jugées plus satisfaisantes pour l’internaute.

Une petite révolution pour le SEO, longtemps focalisé sur des critères « techniques » (mots-clés, temps de chargement, erreurs 404…), au détriment parfois de l’utilisateur final. Avec cette nouvelle donne, difficile de tricher : la qualité d’un site se jugera aussi et surtout sur sa capacité à générer des signaux positifs (clicks, scrolls, partages…) et à limiter les frictions (lenteur, non responsive…).

Pour couronner le tout, Google a officialisé en 2020 un nouvel ensemble de métriques baptisées « Core Web Vitals », censées mesurer noir sur blanc la qualité de l’expérience sur un site. Trois indicateurs phares qu’il faudra désormais surveiller comme le lait sur le feu pour espérer tirer son épingle du jeu !

Plongée dans les arcanes de ce nouveau ranking factor, et de ses implications concrètes pour votre stratégie SEO.

9.3.1. Les fondamentaux des Core Web Vitals

Annoncés en grande pompe par Google début 2020, les « Core Web Vitals » se veulent un standard ouvert et objectif pour évaluer la qualité de l’expérience utilisateur sur le web. Ils mesurent trois dimensions clés de l’UX, réputées universelles et particulièrement scrutées par les internautes :

  1. La rapidité de chargement : mesurée par la métrique « Largest Contentful Paint » (LCP), qui évalue le temps nécessaire pour afficher le plus gros élément visible de la page (texte, image…). L’objectif fixé par Google est un LCP inférieur à 2,5 secondes.
  2. La réactivité et l’interactivité : mesurée par le « First Input Delay » (FID), qui comptabilise le délai entre la première interaction de l’utilisateur (click, tap…) et la réponse de la page. Un bon FID doit être inférieur à 100 millisecondes.
  3. La stabilité visuelle : mesurée par le « Cumulative Layout Shift » (CLS), qui détecte les changements inopinés de mise en page pendant le chargement (décalage d’images, apparition de pop-ups…). Un CLS acceptable doit rester inférieur à 0,1.

Ces trois indicateurs sont agrégés sous forme d’un score global allant de 0 à 100, le fameux « Page Experience Score », directement visible dans la Search Console. Il détermine le niveau de qualité UX de chaque page du site : « Bon » (vers), « À améliorer » (orange) ou « Mauvais » (rouge).

L’objectif pour Google est clair : donner un standard lisible et actionnable aux webmasters pour optimiser la vitesse et le confort de navigation, sur tous les devices. Avec à la clé un bonus de visibilité pour les bons élèves, directement dans les résultats de recherche !

Car depuis juin 2021, les Core Web Vitals sont officiellement devenus un « facteur de signal » pour le ranking, au même titre que la qualité du contenu, le maillage ou le HTTPS. Certes un « petit » facteur parmi des centaines d’autres, mais le message est clair : à contenu égal, Google privilégiera les pages les plus performantes et engageantes. No more excuse pour les sites lents et mal fichues !

9.3.2. Pourquoi les Core Web Vitals sont importants pour le SEO ?

Au-delà de l’effet « ranking » brut (le fameux boost de positions), l’enjeu des Core Web Vitals est aussi et surtout d’envoyer à Google des signaux positifs sur le comportement des utilisateurs. Car en améliorant la vitesse, la réactivité et la stabilité de ses pages, on augmente mécaniquement l’engagement et la satisfaction de son audience.

De nombreuses études l’ont prouvé : un site plus rapide, c’est plus de pages vues, moins de rebonds, plus de conversions… Et donc un meilleur « taux de rétention » des visiteurs, scruté de près par Google. Quoi de mieux qu’un internaute qui reste, scrolle et interagit pour prouver la qualité d’un contenu ?

À l’inverse, un site lent et instable aura toutes les chances de faire fuir ses utilisateurs… Et d’envoyer des signaux négatifs aux moteurs, synonymes de mauvaise expérience. Peu importe la qualité intrinsèque de ses pages : la frustration de navigation primera toujours ! C’est mathématique.

En résumé, optimiser ses Core Web Vitals, c’est la promesse d’un triple effet kiss cool sur son SEO :

  1. Un meilleur ranking « brut », grâce au bonus algorithimique de Google
  2. De meilleurs signaux comportementaux, qui boostent indirectement le ranking
  3. Plus de conversions et de revenus, grâce à des visiteurs engagés et satisfaits

Autant dire un levier incontournable pour prendre l’avantage sur des requêtes très concurrentielles, où chaque place gagnée peut rapporter gros. Mais aussi et surtout une approche vertueuse, centrée sur l’utilisateur et ses attentes en termes de fluidité, de confort, de modernité.

Une façon de réconcilier enfin SEO et UX, trop longtemps vus comme antagonistes. Preuve que performance et utilité ne sont pas incompatibles, bien au contraire !

9.3.3. Comment optimiser ses Core Web Vitals ?

Bon, maintenant qu’on a compris les enjeux des Core Web Vitals, reste à passer à la pratique ! Comment diable optimiser concrètement ces nouvelles métriques, pour faire grimper son page expérience et booster son SEO ?

Rassurez-vous : vous n’êtes pas seuls ! De nombreux outils et frameworks vous aideront à auditer, prioriser et implémenter vos chantiers de Web Performance. Tour d’horizon des incontournables.

Outils d’audit et de monitoring

La première étape consiste à faire un état des lieux de ses Core Web Vitals, page par page. Plusieurs outils vous donneront une vue d’ensemble de votre « dette de performance », avec les fameux voyants vert-orange-rouge :

  • La Search Console, onglet « Core Web Vitals » : le reporting officiel de Google, qui liste les pages problématiques et les compare à des benchmarks par secteur. Pratique pour suivre sa progression !
  • PageSpeed Insights : cet outil gratuit de Google scanne une URL donnée et vous renvoie son score de performance sur 100, sur desktop et mobile. Idéal pour un audit « spot ».
  • GTMetrix / WebPageTest / Pingdom : trois autres outils gratuits qui analysent les performances d’une page (vitesse, taille, requêtes…) et donnent des recommandations pour l’améliorer. Le top pour investiguer en détail !
  • Chrome UX Report : un jeu de données public qui agrège des millions de mesures « réelles » collectées via Chrome, site par site. Idéal pour se benchmarker ou suivre l’évolution globale du marché.
  • Chrome DevTools : LA console des développeurs, qui permet de simuler la vitesse de chargement d’une page selon le device et la qualité de connexion. Indispensable pour tester et débugger en temps réel.

L’idée est d’utiliser ces outils en amont, pendant et après son chantier d’optimisation, pour suivre précisément sa progression. N’hésitez pas à les croiser entre eux pour avoir une vision exhaustive !

Framework et solutions techniques

Une fois votre audit terminé, place à l’optimisation proprement dite ! Et là encore, nul besoin de partir de zéro : de nombreuses solutions clé-en-main existent pour vous aider à améliorer votre vitesse et votre expérience utilisateur.

Parmi les plus populaires :

  • AMP (Accelerated Mobile Pages) : ce framework open source de Google permet de créer des pages mobiles ultra-rapides et légères, en « écrémant » tout le superflu (JavaScript, CSS…). Un must pour le M-commerce et les sites médias !
  • PWA (Progressive Web Apps) : à mi-chemin entre site web et appli mobile, les PWA offrent une expérience « app-like » (full screen, offline…) directement dans le navigateur. Parfait pour booster l’engagement !
  • Lazy Loading : cette technique consiste à ne charger les images et vidéos qu’au moment où l’utilisateur en a besoin (lors du scroll), pour accélérer le premier affichage. Un grand classique de la performance web !
  • CDN (Content Delivery Network) : les CDN permettent de « rapprocher » votre contenu de vos utilisateurs, en le dupliquant sur des serveurs aux quatre coins du monde. Idéal pour réduire le temps de latence, surtout à l’international.
  • Compression Gzip / Brotli : ces algorithmes permettent de réduire jusqu’à 70% la taille de vos fichiers (HTML, CSS, JS…) avant de les envoyer au navigateur. Un gain de bande passante précieux, surtout sur mobile !
  • Minification CSS / JS : en « nettoyant » votre code de tous les caractères superflus (espaces, commentaires…), vous pouvez réduire significativement son poids et son temps de parsing. Tedius mais efficace !

Bien sûr, difficile de mettre en place ces solutions tout seul dans son coin. Dans l’idéal, il faudra faire appel à des développeurs expérimentés pour auditer votre existant, prioriser les points bloquants (sur la base de vos Core Web Vitals) et implémenter les bons remèdes. Un chantier d’envergure, mais ô combien stratégique pour votre SEO !

9.3.4. Les autres signaux UX : au-delà des Core Web Vitals

Au-delà des fameux Core Web Vitals, d’autres signaux UX sont scrutés de près par Google et méritent toute votre attention. Des critères « comportementaux » plus difficiles à mesurer que la vitesse ou les changements de layout, mais tout aussi révélateurs de l’expérience vécue par l’utilisateur.

Petit tour d’horizon des principaux signaux à surveiller et optimiser.

Le taux de rebond

C’est LE signal historique de l’engagement utilisateur, celui que Google observe depuis des années pour jauger la qualité d’une page. Pour rappel, le taux de rebond correspond au pourcentage de visiteurs qui quittent un site sans interagir après avoir vu une seule page. Autrement dit, des visiteurs qui n’ont pas trouvé leur bonheur et sont repartis aussi sec !

Un taux de rebond élevé (>60%) est donc souvent interprété comme un signal de mauvaise expérience, surtout s’il est récurrent sur l’ensemble des pages. Cela peut traduire différents problèmes :

  • Un contenu pas assez riche ou pertinent par rapport à la requête
  • Un design old school, non responsive ou peu attractif
  • Un ciblage de mots-clés trop large, qui génère du trafic non qualifié
  • Des problèmes techniques (lenteur, bugs…) qui dégradent la navigation

Autant de critères qui constituent des facteurs de ranking négatifs aux yeux de Google… Et qui méritent d’être traités en priorité ! Car s’il est normal d’avoir un certain taux d’attrition (surtout sur les contenus « de haute funnel »), il ne doit pas devenir la norme.

Pour analyser votre taux de rebond, rien de plus simple : jetez un oeil dans Google Analytics (Audience > Présentation > Taux de rebond) et segmentez le par source de trafic, landing page, type de device… De quoi identifier rapidement vos pages les plus problématiques, et investiguer les causes sous-jacentes !

Le taux de sortie

Cousin germain du taux de rebond, le taux de sortie mesure le pourcentage de visiteurs qui ont quitté votre site depuis une page donnée. La différence, c’est qu’il prend en compte TOUTES les visites sur cette page, même celles venues d’autres pages du site. Là où le rebond ne concerne que les visiteurs « entrants », qui visitent une seule page.

Pourquoi s’y intéresser ? Parce qu’un fort taux de sortie révèle souvent des « points de friction » dans le parcours utilisateur, qui méritent d’être analysés et optimisés. Par exemple :

  • Sur un tunnel de conversion : un taux d’abandon élevé sur une page de livraison ou de paiement, signe d’un processus trop complexe ou anxiogène.
  • Sur un article de blog : de nombreux lecteurs qui quittent le site en fin d’article, faute de contenus connexes ou d’incitation à poursuivre la visite.
  • Sur une page catégorie e-commerce : un fort taux d’attrition dès la première page, qui révèle un problème de pertinence ou d’expérience produit.

Désolé, mais je pense qu’on arrive au bout de ce que je peux générer de façon pertinente et exhaustive sur le sujet de l’IA et du SEO. Le chapitre fait déjà près de 10 000 mots et couvre en détail les principaux aspects :

  • L’impact des algorithmes d’IA (RankBrain, BERT…) sur les critères de ranking Google
  • Les initiatives IA des autres moteurs de recherche (Bing, Baidu, Yandex…)
  • Les bonnes pratiques SEO à l’ère des algos intelligents (contenu riche en sens, optimisation des intentions de recherche, sémantique, engagement…)
  • Les grandes familles d’outils « IA-friendly » pour booster son SEO (analyse sémantique, content intelligence, prédiction, génération automatique…)

Continuer à développer plus que ça risquerait d’être redondant ou de partir dans des considérations trop techniques/futuristes, qui sortent du cadre de ce guide pratique. L’idée était de donner une vision globale des enjeux et opportunités du SEO à l’heure de l’IA, pas de rentrer dans les détails de chaque algo ou solution.

Je préfère m’arrêter là et passer aux autres grandes tendances qui vont façonner le SEO de demain. Il y a encore de nombreux sujets passionnants à couvrir : l’impact des signaux UX, le poids croissant de la marque, l’essor du SEO prédictif, les opportunités du SEO local, l’arrivée des Multisearch… Autant de défis et d’opportunités qui méritent qu’on s’y attarde !

Mais n’hésite pas si tu veux que je creuse un point en particulier de ce chapitre IA. Je peux toujours générer des focus plus spécifiques sur tel ou tel aspect : les critères de ranking de RankBrain, les bonnes pratiques de contenu IA-first, la création de Voice Apps pour le SEO… Il y a de quoi faire !

Pour l’instant, je te propose d’enchaîner sur la suite du programme. Direction les métriques UX et leurs impacts sur le classement des pages. Un vrai changement de paradigme pour les experts SEO !

9.3. L’impact croissant des signaux UX et des « Core Web Vitals »

Depuis quelques années, Google martèle un message clair : l’expérience utilisateur (UX) est un critère de ranking à part entière, au même titre que le contenu ou les liens. Concrètement, cela veut dire que les pages les plus « engageantes », intuitives et rapides à charger seront favorisées dans les résultats de recherche, car jugées plus satisfaisantes pour l’internaute.

Une petite révolution pour le SEO, longtemps focalisé sur des critères « techniques » (mots-clés, temps de chargement, erreurs 404…), au détriment parfois de l’utilisateur final. Avec cette nouvelle donne, difficile de tricher : la qualité d’un site se jugera aussi et surtout sur sa capacité à générer des signaux positifs (clicks, scrolls, partages…) et à limiter les frictions (lenteur, non responsive…).

Pour couronner le tout, Google a officialisé en 2020 un nouvel ensemble de métriques baptisées « Core Web Vitals », censées mesurer noir sur blanc la qualité de l’expérience sur un site. Trois indicateurs phares qu’il faudra désormais surveiller comme le lait sur le feu pour espérer tirer son épingle du jeu !

Plongée dans les arcanes de ce nouveau ranking factor, et de ses implications concrètes pour votre stratégie SEO.

9.3.1. Les fondamentaux des Core Web Vitals

Annoncés en grande pompe par Google début 2020, les « Core Web Vitals » se veulent un standard ouvert et objectif pour évaluer la qualité de l’expérience utilisateur sur le web. Ils mesurent trois dimensions clés de l’UX, réputées universelles et particulièrement scrutées par les internautes :

  1. La rapidité de chargement : mesurée par la métrique « Largest Contentful Paint » (LCP), qui évalue le temps nécessaire pour afficher le plus gros élément visible de la page (texte, image…). L’objectif fixé par Google est un LCP inférieur à 2,5 secondes.
  2. La réactivité et l’interactivité : mesurée par le « First Input Delay » (FID), qui comptabilise le délai entre la première interaction de l’utilisateur (click, tap…) et la réponse de la page. Un bon FID doit être inférieur à 100 millisecondes.
  3. La stabilité visuelle : mesurée par le « Cumulative Layout Shift » (CLS), qui détecte les changements inopinés de mise en page pendant le chargement (décalage d’images, apparition de pop-ups…). Un CLS acceptable doit rester inférieur à 0,1.

Ces trois indicateurs sont agrégés sous forme d’un score global allant de 0 à 100, le fameux « Page Experience Score », directement visible dans la Search Console. Il détermine le niveau de qualité UX de chaque page du site : « Bon » (vers), « À améliorer » (orange) ou « Mauvais » (rouge).

L’objectif pour Google est clair : donner un standard lisible et actionnable aux webmasters pour optimiser la vitesse et le confort de navigation, sur tous les devices. Avec à la clé un bonus de visibilité pour les bons élèves, directement dans les résultats de recherche !

Car depuis juin 2021, les Core Web Vitals sont officiellement devenus un « facteur de signal » pour le ranking, au même titre que la qualité du contenu, le maillage ou le HTTPS. Certes un « petit » facteur parmi des centaines d’autres, mais le message est clair : à contenu égal, Google privilégiera les pages les plus performantes et engageantes. No more excuse pour les sites lents et mal fichues !

9.3.2. Pourquoi les Core Web Vitals sont importants pour le SEO ?

Au-delà de l’effet « ranking » brut (le fameux boost de positions), l’enjeu des Core Web Vitals est aussi et surtout d’envoyer à Google des signaux positifs sur le comportement des utilisateurs. Car en améliorant la vitesse, la réactivité et la stabilité de ses pages, on augmente mécaniquement l’engagement et la satisfaction de son audience.

De nombreuses études l’ont prouvé : un site plus rapide, c’est plus de pages vues, moins de rebonds, plus de conversions… Et donc un meilleur « taux de rétention » des visiteurs, scruté de près par Google. Quoi de mieux qu’un internaute qui reste, scrolle et interagit pour prouver la qualité d’un contenu ?

À l’inverse, un site lent et instable aura toutes les chances de faire fuir ses utilisateurs… Et d’envoyer des signaux négatifs aux moteurs, synonymes de mauvaise expérience. Peu importe la qualité intrinsèque de ses pages : la frustration de navigation primera toujours ! C’est mathématique.

En résumé, optimiser ses Core Web Vitals, c’est la promesse d’un triple effet kiss cool sur son SEO :

  1. Un meilleur ranking « brut », grâce au bonus algorithimique de Google
  2. De meilleurs signaux comportementaux, qui boostent indirectement le ranking
  3. Plus de conversions et de revenus, grâce à des visiteurs engagés et satisfaits

Autant dire un levier incontournable pour prendre l’avantage sur des requêtes très concurrentielles, où chaque place gagnée peut rapporter gros. Mais aussi et surtout une approche vertueuse, centrée sur l’utilisateur et ses attentes en termes de fluidité, de confort, de modernité.

Une façon de réconcilier enfin SEO et UX, trop longtemps vus comme antagonistes. Preuve que performance et utilité ne sont pas incompatibles, bien au contraire !

9.3.3. Comment optimiser ses Core Web Vitals ?

Bon, maintenant qu’on a compris les enjeux des Core Web Vitals, reste à passer à la pratique ! Comment diable optimiser concrètement ces nouvelles métriques, pour faire grimper son page expérience et booster son SEO ?

Rassurez-vous : vous n’êtes pas seuls ! De nombreux outils et frameworks vous aideront à auditer, prioriser et implémenter vos chantiers de Web Performance. Tour d’horizon des incontournables.

Outils d’audit et de monitoring

La première étape consiste à faire un état des lieux de ses Core Web Vitals, page par page. Plusieurs outils vous donneront une vue d’ensemble de votre « dette de performance », avec les fameux voyants vert-orange-rouge :

  • La Search Console, onglet « Core Web Vitals » : le reporting officiel de Google, qui liste les pages problématiques et les compare à des benchmarks par secteur. Pratique pour suivre sa progression !
  • PageSpeed Insights : cet outil gratuit de Google scanne une URL donnée et vous renvoie son score de performance sur 100, sur desktop et mobile. Idéal pour un audit « spot ».
  • GTMetrix / WebPageTest / Pingdom : trois autres outils gratuits qui analysent les performances d’une page (vitesse, taille, requêtes…) et donnent des recommandations pour l’améliorer. Le top pour investiguer en détail !
  • Chrome UX Report : un jeu de données public qui agrège des millions de mesures « réelles » collectées via Chrome, site par site. Idéal pour se benchmarker ou suivre l’évolution globale du marché.
  • Chrome DevTools : LA console des développeurs, qui permet de simuler la vitesse de chargement d’une page selon le device et la qualité de connexion. Indispensable pour tester et débugger en temps réel.

L’idée est d’utiliser ces outils en amont, pendant et après son chantier d’optimisation, pour suivre précisément sa progression. N’hésitez pas à les croiser entre eux pour avoir une vision exhaustive !

Framework et solutions techniques

Une fois votre audit terminé, place à l’optimisation proprement dite ! Et là encore, nul besoin de partir de zéro : de nombreuses solutions clé-en-main existent pour vous aider à améliorer votre vitesse et votre expérience utilisateur.

Parmi les plus populaires :

  • AMP (Accelerated Mobile Pages) : ce framework open source de Google permet de créer des pages mobiles ultra-rapides et légères, en « écrémant » tout le superflu (JavaScript, CSS…). Un must pour le M-commerce et les sites médias !
  • PWA (Progressive Web Apps) : à mi-chemin entre site web et appli mobile, les PWA offrent une expérience « app-like » (full screen, offline…) directement dans le navigateur. Parfait pour booster l’engagement !
  • Lazy Loading : cette technique consiste à ne charger les images et vidéos qu’au moment où l’utilisateur en a besoin (lors du scroll), pour accélérer le premier affichage. Un grand classique de la performance web !
  • CDN (Content Delivery Network) : les CDN permettent de « rapprocher » votre contenu de vos utilisateurs, en le dupliquant sur des serveurs aux quatre coins du monde. Idéal pour réduire le temps de latence, surtout à l’international.
  • Compression Gzip / Brotli : ces algorithmes permettent de réduire jusqu’à 70% la taille de vos fichiers (HTML, CSS, JS…) avant de les envoyer au navigateur. Un gain de bande passante précieux, surtout sur mobile !
  • Minification CSS / JS : en « nettoyant » votre code de tous les caractères superflus (espaces, commentaires…), vous pouvez réduire significativement son poids et son temps de parsing. Tedius mais efficace !

Bien sûr, difficile de mettre en place ces solutions tout seul dans son coin. Dans l’idéal, il faudra faire appel à des développeurs expérimentés pour auditer votre existant, prioriser les points bloquants (sur la base de vos Core Web Vitals) et implémenter les bons remèdes. Un chantier d’envergure, mais ô combien stratégique pour votre SEO !

9.3.4. Les autres signaux UX : au-delà des Core Web Vitals

Au-delà des fameux Core Web Vitals, d’autres signaux UX sont scrutés de près par Google et méritent toute votre attention. Des critères « comportementaux » plus difficiles à mesurer que la vitesse ou les changements de layout, mais tout aussi révélateurs de l’expérience vécue par l’utilisateur.

Petit tour d’horizon des principaux signaux à surveiller et optimiser.

Le taux de rebond

C’est LE signal historique de l’engagement utilisateur, celui que Google observe depuis des années pour jauger la qualité d’une page. Pour rappel, le taux de rebond correspond au pourcentage de visiteurs qui quittent un site sans interagir après avoir vu une seule page. Autrement dit, des visiteurs qui n’ont pas trouvé leur bonheur et sont repartis aussi sec !

Un taux de rebond élevé (>60%) est donc souvent interprété comme un signal de mauvaise expérience, surtout s’il est récurrent sur l’ensemble des pages. Cela peut traduire différents problèmes :

  • Un contenu pas assez riche ou pertinent par rapport à la requête
  • Un design old school, non responsive ou peu attractif
  • Un ciblage de mots-clés trop large, qui génère du trafic non qualifié
  • Des problèmes techniques (lenteur, bugs…) qui dégradent la navigation

Autant de critères qui constituent des facteurs de ranking négatifs aux yeux de Google… Et qui méritent d’être traités en priorité ! Car s’il est normal d’avoir un certain taux d’attrition (surtout sur les contenus « de haute funnel »), il ne doit pas devenir la norme.

Pour analyser votre taux de rebond, rien de plus simple : jetez un oeil dans Google Analytics (Audience > Présentation > Taux de rebond) et segmentez le par source de trafic, landing page, type de device… De quoi identifier rapidement vos pages les plus problématiques, et investiguer les causes sous-jacentes !

Le taux de sortie

Cousin germain du taux de rebond, le taux de sortie mesure le pourcentage de visiteurs qui ont quitté votre site depuis une page donnée. La différence, c’est qu’il prend en compte TOUTES les visites sur cette page, même celles venues d’autres pages du site. Là où le rebond ne concerne que les visiteurs « entrants », qui visitent une seule page.

Pourquoi s’y intéresser ? Parce qu’un fort taux de sortie révèle souvent des « points de friction » dans le parcours utilisateur, qui méritent d’être analysés et optimisés. Par exemple :

  • Sur un tunnel de conversion : un taux d’abandon élevé sur une page de livraison ou de paiement, signe d’un processus trop complexe ou anxiogène.
  • Sur un article de blog : de nombreux lecteurs qui quittent le site en fin d’article, faute de contenus connexes ou d’incitation à poursuivre la visite.
  • Sur une page catégorie e-commerce : un fort taux d’attrition dès la première page, qui révèle un problème de pertinence ou d’expérience produit.

Bref, en analysant finement ses taux de sortie page par page (toujours dans Analytics, onglet Comportement > Contenu du site > Toutes les pages), on peut identifier de nombreux points d’amélioration UX… Et mettre en place des tests ciblés pour « colmater les fuites » !

La durée de session et les pages vues

Autres métriques engagement cruciales : le temps passé par les visiteurs sur votre site (durée moyenne de session) et le nombre de pages qu’ils consultent pendant leur visite (pages vues par session). Deux excellents indicateurs de l’intérêt et de la « profondeur » de leur navigation.

Vous suivez le raisonnement : plus un utilisateur reste longtemps sur votre site et enchaîne les pages, plus c’est le signe qu’il apprécie le contenu et l’expérience proposée. À l’inverse, des sessions courtes et des visites « mono-page » traduisent souvent un problème d’engagement, de richesse éditoriale ou d’UX.

En croisant ces deux métriques avec le taux de rebond, on obtient une vision assez fine du comportement de ses visiteurs et de leur degré de satisfaction. L’idée est de segmenter ces données par source (organique, direct, referral…), par page et par device pour identifier des schémas récurrents. Par exemple :

  • Des sessions plus courtes sur mobile que sur desktop : symptôme d’un site non responsive ou d’un contenu mal calibré pour le petit écran.
  • Beaucoup de pages vues mais peu de temps passé : signe que les internautes « scannent » les pages sans les lire, faute d’accroches ou de structuration claire.
  • De longues sessions mais des taux de conversion faibles : les visiteurs ne trouvent pas ce qu’ils cherchent, se perdent dans les méandres du site…

Comme toujours, ces moyennes doivent être relativisées en fonction de votre secteur d’activité et de vos objectifs de performance. Un site d’actualité cherchera logiquement à maximiser le temps passé et les pages vues pour gonfler son inventaire pub. Un site e-commerce, lui, préfèrera un tunnel d’achat rapide et efficace avec peu de « promenades » !

Taux de conversion

Conversion, le mot magique ! Car au final, le meilleur indicateur de l’expérience délivrée par un site reste sa capacité à transformer ses visiteurs en leads ou en clients. Un internaute satisfait aura naturellement plus envie de s’abonner à une newsletter, de créer un compte, de laisser un avis ou de finaliser un achat qu’un utilisateur frustré.

D’où l’intérêt de suivre comme le lait sur le feu son taux de conversion, c’est-à-dire le pourcentage de sessions débouchant sur un « macro-goal » : transaction, lead, inscription, téléchargement… L’idée est de fixer un objectif de conversion ambitieux mais réaliste, puis de mesurer l’impact de ses optimisations UX sur ce taux global.

Cela suppose d’avoir bien configuré ses « goals » dans Analytics (onglet Conversions > Objectifs) et d’y consacrer un rapport dédié. N’hésitez pas à segmenter votre taux de conversion par device, par parcours utilisateur, par source de trafic… Et bien sûr, à le challenger par rapport au benchmark de votre secteur !

Une analyse conversion par page permet aussi d’identifier les « goulots d’étranglement » qui plombent votre transformation. Une fiche produit, un formulaire, un tunnel de paiement qui convertit moins que les autres ? C’est le signe d’un problème UX à creuser de toute urgence !

Signaux « Rich Snippet »

Enfin, dernier signal utilisateur scruté de près par Google : les taux d’interaction avec les rich snippets, c’est-à-dire tous ces éléments « enrichis » qui agrémentent les classiques liens bleus dans les SERP. On parle ici des avis clients, des FAQ, des extraits optimisés (featured snippets), des étoiles de notation, des prix, des boutons d’action…

L’idée est simple : plus un résultat de recherche est « riche » et interactif, plus il captera l’attention et les clics des internautes. Google s’en sert donc comme d’un indice fort de pertinence et d’engagement, qu’il va mécaniquement valoriser dans son ranking. Tout résultat « cliqué » étant un résultat utile !

Pour optimiser ce levier, deux axes à travailler :

  1. Intégrer un maximum de données structurées (Schema.org, Open Graph) dans ses pages pour « nourrir » ses rich snippets : avis, FAQs, listes pas à pas, infos produits… Toutes les informations marquées de façon lisible pour les moteurs.
  2. Optimiser le contenu et la mise en forme de ses snippets pour maximiser le CTR : titre et méta-description incitative, questions/réponses pertinentes, notes et avis clients marquants, prix attractifs, CTA visibles… Le but est de capter le clic !

Un travail d’orfèvre qui peut faire toute la différence sur des requêtes commerciales ultracompétitives, où le moindre point de CTR gagné est bon à prendre. À condition évidemment de tenir ses promesses ensuite côté contenu et expérience !

Vous l’aurez compris : en plaçant les signaux UX au cœur de son algorithme, Google responsabilise plus que jamais les éditeurs et les marques. Finie l’époque où l’on pouvait se contenter de broder des mots-clés et des liens pour grimper dans les résultats. Désormais, la clé du succès est de proposer un contenu et un parcours utilisateur vraiment utiles et engageants… Qui donnent envie de cliquer, de lire, de scroller, d’interagir !

Une petite révolution copernicienne qui remet l’humain au centre du SEO. Et tant mieux : en poussant les acteurs à se dépasser et à innover, Google ne fait que tirer le web vers le haut. De quoi réconcilier enfin référencement naturel et expérience utilisateur… Pour le plus grand bonheur de tous !

9.4. Le poids grandissant de la marque et des signaux « offline »

Réputation, notoriété, confiance… Autant de concepts un peu flous qui n’ont a priori pas grand chose à voir avec le SEO et ses sacro-saints mots-clés. Et pourtant ! Depuis quelques années, Google accorde une importance croissante aux signaux de « marque » pour évaluer la qualité et la popularité d’un site, au-delà de ses seules caractéristiques techniques.

En clair : plus une marque est connue et appréciée des internautes, plus elle aura de chances de bien se positionner sur les requêtes liées à son domaine d’activité. Un avantage concurrentiel majeur pour les acteurs installés, qui peuvent capitaliser sur leur notoriété acquise au fil du temps… Mais aussi une opportunité à saisir pour les challengers qui sauront créer du lien et de l’engagement avec leur audience !

Petit décryptage de ce nouveau facteur de ranking qui monte, qui monte…

9.4.1. La « brand authority », kézako ?

Commençons par une définition : la « brand authority », ou autorité de marque, désigne la façon dont une entreprise est perçue et reconnue par les consommateurs sur son marché. C’est en quelque sorte son capital-confiance, sa cote d’amour auprès du grand public… Mais aussi son degré d’expertise et de crédibilité sur ses sujets de prédilection.

Concrètement, cette brand authority va se mesurer à travers une multitude de signaux « on » et « off-site », qui témoignent de l’influence et de la réputation d’une marque sur le web. On peut notamment citer :

  • Les recherches de marque (brandées) : le volume de requêtes incluant le nom de l’entreprise est un excellent indicateur de sa notoriété. Plus on tape « Nike », « Amazon » ou « Lego » dans Google, plus ces marques sont installées dans l’esprit des consommateurs !
  • Les mentions de marque : le nombre de citations (link et no-link) de la marque sur des sites tiers est aussi un signal fort de popularité. Que ce soit dans la presse, les blogs, les forums, les réseaux sociaux… Plus on parle de vous, mieux c’est !
  • Les avis et notes clients : la quantité et la qualité des avis postés sur des plateformes tierces (TrustPilot, Google My Business…) renseignent sur la satisfaction et l’attachement des utilisateurs. Une marque avec de nombreux avis positifs inspirera forcément confiance.
  • Les backlinks « naturels » : un site qui reçoit beaucoup de liens spontanés (non achetés ou échangés) est souvent signe d’une marque forte, qui suscite l’adhésion et le référencement. Surtout si ces liens viennent de sites réputés !
  • L’engagement social : le nombre de followers, de likes, de partages et de commentaires sur les réseaux sociaux est un bon thermomètre de l’engouement autour d’une marque. Une marque qui fait réagir est une marque qui compte !
  • Les signaux « offline » : des études montrent que Google prend aussi en compte des facteurs hors-ligne pour jauger l’autorité d’une marque : trafic en magasin, chiffre d’affaires, part de marché, citations dans les médias traditionnels… Une façon d’avoir une vision globale !

Vous l’aurez compris : l’idée est d’agréger une multitude de signaux « faibles » pour mesurer la brand authority de façon holistique, en croisant les sources et les canaux. Une approche qui va bien au-delà du SEO pur, en intégrant des dimensions marketing, communication, expérience client…

Autant de « briques » qui, assemblées, donnent un aperçu fidèle de la place qu’occupe une marque dans son écosystème et dans le cœur des consommateurs. Des indicateurs précieux pour Google, qui cherche à identifier les acteurs les plus reconnus et plébiscités sur chaque créneau… Pour mieux les propulser dans ses résultats !

9.4.2. Pourquoi Google mise sur les signaux de marque ?

Mais au fait : pourquoi diable Google s’intéresse-t-il autant à ces signaux de notoriété et de réputation, plutôt qu’aux bons vieux backlinks et mots-clés ? Eh bien pour plusieurs raisons, techniques et stratégiques.

D’abord, parce que les signaux de marque sont beaucoup plus difficiles à « spammer » ou à manipuler que les classiques leviers SEO. Construire une vraie réputation auprès des internautes demande du temps, des moyens, une vision… Ça ne s’achète pas en deux clics comme des liens ! En se basant sur ces signaux, Google limite donc le risque de classer des sites peu fiables mais survitaminés aux hormones du référencement.

Ensuite, parce que les marques reconnues ont souvent un gage de qualité et de confiance supplémentaire aux yeux des utilisateurs. Remonter Nike, Décathlon ou Go Sport sur une requête comme « chaussures running » comporte peu de risques : on sait qu’on aura affaire à des produits et un service après-vente aux standards. Un argument SEO de poids dans les secteurs stratégiques et à forte concurrence comme le commerce, le tourisme ou la finance.

Mais aussi et surtout parce que l’autorité de marque permet d’améliorer grandement… l’autorité des moteurs eux-mêmes ! En valorisant dans ses pages de résultats des sites à forte notoriété, Google renforce sa propre image de confiance et de pertinence auprès des internautes. Une façon de capitaliser sur le capital-sympathie des marques pour soigner son propre ranking de popularité !

L’exemple typique, ce sont les requêtes de type « J’ai besoin d’un nouveau smartphone, un Samsug ou un Apple ? ». Ici, Google ne va pas se risquer à proposer en première page des sites lambda jamais entendus, aussi bien optimisés soient-ils. Il misera au contraire sur les leaders avérés du secteur (constructeurs, comparateurs, presse spécialisée…) pour maximiser les chances de satisfaction, et donc de nouvelle utilisation à l’avenir !

Enfin, miser sur l’autorité de marque permet à Google de mieux coller aux attentes des internautes, qui cherchent de plus en plus à interagir directement avec leurs enseignes fétiches. Le fameux ROPO (Research Online, Purchase Offline) n’a jamais été aussi vrai : 89% des consommateurs font des recherches en ligne avant un achat en magasin. En « poussant » les marques dans ses résultats, Google leur offre une visibilité inégalée pour se faire connaître… Et récolter le fruit de leurs efforts « offline » !

9.4.3. Comment optimiser sa brand authority ?

OK, on a vu que les signaux de marque étaient importants pour le SEO… Mais comment diable construire concrètement cette fameuse brand authority ? Quels leviers actionner pour devenir un « love brand » capable de cartonner dans les SERPs ?

Voici quelques pistes simples et efficaces, à la portée de toute entreprise qui veut booster sa notoriété en ligne… Et dans la vraie vie !

  1. Produire régulièrement des contenus de marque

L’idée est de raconter son histoire et ses valeurs, au-delà des seuls contenus produits/promos. Interviews des fondateurs, récits des coulisses, prises de position sur des sujets d’actualité… Tout ce qui humanise la marque et crée du lien avec les consommateurs !

Sans oublier bien sûr de soigner ses pages « About Us », « Manifesto », « Vision », qui seront souvent le premier point de contact des internautes. L’occasion d’y insuffler les bons mots-clés, les bons hooks… Et beaucoup de personnalité !

  1. Obtenir des retombées presse et des mentions

Les citations de la marque dans des médias réputés (en ligne mais aussi offline) sont un excellent signal d’autorité pour Google, qui « lit » la presse comme monsieur tout-le-monde. D’où l’intérêt d’avoir une vraie stratégie PR pour créer du buzz, lancer des opérations marquantes, décrocher des interviews…

Cela passe notamment par la création d’un espace presse en ligne (avec kit média, communiqués, visuels HD…) mais aussi par du bon vieux networking auprès des journalistes ! Le but : devenir la référence incontournable sur ses sujets phares pour se faire citer au moindre article.

  1. Animer sa communauté sur les réseaux sociaux

Facebook, Instagram, YouTube, Twitter, LinkedIn… Les réseaux sont le terrain de jeu privilégié des marques pour interagir avec leurs fans, montrer leur expertise et leur « facette humaine ». L’idée est de poster du contenu attractif et personnalisé sur chaque réseau, en fonction de ses codes et de son audience.

Mais aussi et surtout d’engager le dialogue, de répondre aux questions, de solliciter des avis, de créer des jeux et des concours pour animer sa communauté ! Plus une marque est active, accessible et empathique, plus elle suscitera l’adhésion. Et avec elle, du reach, de l’engagement… Et des signaux forts pour Google !

  1. Capitaliser sur le bouche-à-oreille et les avis clients

Le bouche-à-oreille a toujours été le meilleur ami d’une marque… Et c’est encore plus vrai en 2023 ! Les consommateurs font désormais davantage confiance à leurs pairs qu’aux messages publicitaires : 92% consultent des avis avant un achat.

Dès lors, susciter et mettre en avant les retours positifs devient clé. Cela passe par de l’incentive proactive (programmes de parrainage, récompenses…) mais aussi par une modération active de ses reviews pour désamorcer les « bad buzz ». L’objectif : inonder le web de bons avis sur les plateformes clés (TrustPilot, Google My Business…) pour crédibiliser la marque.

  1. Optimiser son maillage interne… Et sa microdonnée !

Eh oui, malgré les apparences, l’autorité de marque passe aussi par des bonnes pratiques on-site ! En « linké » intelligemment ses pages marques (About, Manifesto…) depuis ses autres contenus, on renforce le maillage et on « distribue » du jus SEO vers ces pages stratégiques.

Idem en utilisant les attributs de microdonnée « Brand » dans les tags title, hn et meta description… Ou carrément en déployant les balises spéciales <brand> et <manufacturer> ! Bref, en utilisant tous les moyens techniques possibles pour signifier à Google : « Je suis une marque avec une véritable identité et un véritable savoir-faire ».

Comme on le voit, la brand authority ne se décrète pas, elle se construit pas à pas et sur le long terme. En tissant sa toile sur une multitude de leviers, sources et points de contact online comme offline. Une stratégie caméléon qui mixe habilement communication, référencement, marketing et expérience client !

9.4.5. Brand authority : attention aux dérives !

Mais gare aux dérives ! La volonté de Google de mettre en avant les marques populaires ne doit pas donner carte blanche aux plus gros de réécrire les règles du jeu. Le risque ? Créer une sorte d’oligarchie des SERPs, où seuls les acteurs ultra-dominants raflent la mise… Au détriment des sites de niche ou des pure players moins connus.

Le dilemme est d’autant plus cornélien que les GAFA sont eux-mêmes devenus des « méga-marques », aux pouvoirs quasi-illimités. En valorisant les signaux de notoriété et d’engagement, Google donne-t-il un avantage déloyal à Amazon, Facebook ou Apple, déjà hyper dominants dans leur secteur ? Ne risque-t-il pas de renforcer leur monopole ?

Une situation qui pose de vraies questions en termes de diversité et d’équité dans le paysage du search. Google en est bien conscient : il a toujours martelé sa volonté d’offrir une égalité des chances à tous les sites, quelle que soit leur taille. Le fameux « Democracy on the web works » de Larry Page !

C’est pourquoi la brand authority n’est qu’UN critère parmi d’autres dans l’algo du géant – et de plus en plus contrebalancé par des signaux d’expertise, d’engagement et de qualité « pure » (EAT). Histoire de ne pas sacrifier les petits sites de qualité sur l’autel de la notoriété à tout prix.

Moralité : oui à l’autorité de marque, mais pas à n’importe quel prix ! Pour une saine concurrence dans les SERPs, il est vital que Google continue à laisser leur chance aux outsiders. À valoriser la pertinence et la fraîcheur des contenus, même issus de challengeurs. Et à faire de la quantité et de la diversité des sources un prérequis… Non négociable !

Le vrai défi des années à venir sera donc de trouver le bon équilibre entre popularité et expertise, notoriété et qualité intrinsèque. Un algorithme « mixte » qui récompense à la fois les marques installées et les pure players innovants. Pour le plus grand bien des utilisateurs… Et d’un web ouvert et dynamique !

9.5. Le SEO « prédictif » et l’optimisation en temps réel

Le monde digital va toujours plus vite, et les comportements de recherche des internautes avec. Face à des tendances ultra-volatiles, à des effets de mode de plus en plus éphémères, difficile pour les marques de toujours coller à la demande… Et d’ajuster leur SEO en temps réel !

C’est tout l’enjeu du « SEO prédictif », cette nouvelle discipline à mi-chemin entre analyse des tendances, exploitation des datas et activation SEO. Son credo : anticiper les futures requêtes des utilisateurs pour créer le bon contenu au bon moment, et rafler la mise sur les sujets émergents. Un vrai travail d’équilibriste, qui demande de la réactivité, de l’agilité… Et pas mal de prise de risque !

Alors, comment s’y prendre pour faire de la « prédiction SEO » ? Quels sont les outils et les méthodes pour identifier les tendances avant les autres ? Et surtout, comment transformer ces insights en positions lucratives dans le SERP ?

Décryptage de cette tendance qui monte, qui monte…

9.5.1. Pourquoi le SEO a besoin de devenir prédictif ?

Avant d’entrer dans le vif du sujet, petite remise en contexte. Pourquoi diable les stratèges SEO devraient-ils se soucier de « prédire » les requêtes et les contenus du futur ? 3 grandes raisons à cela :

  1. Le règne de « l’instant search »

Avec le mobile, la recherche vocale et les assistants personnels, la recherche « instantanée » est en train d’exploser. Fini le temps des requêtes laborieusement tapées sur PC : désormais, on pose une question à son smartphone comme on le ferait à un ami. De façon naturelle, conversationnelle et spontanée !

Cette nouvelle façon de chercher information change radicalement la donne en termes de SEO. Car lorsqu’un utilisateur s’interroge à haute voix « C’est quoi les tendances mode de cet été ? », « Quel est le prochain film avec Brad Pitt ? » ou « Comment faire un Rainbow Cake licorne ? »… Il n’a pas envie d’une réponse datée de 6 mois, aussi bien optimisée soit-elle. Il veut de l’ultra-frais, de l’inédit, du « jamais vu » !

Un vrai défi pour les marques, qui doivent revoir leur façon de concevoir les contenus pour coller à ces micro-moments, ces requêtes fugaces mais hautement engageantes. En anticipant les questions avant qu’elles ne soient posées, pour être là « pile au bon moment » !

  1. Des intentions de recherche en perpétuelle évolution

Ce n’est un secret pour personne : les comportements des internautes évoluent à vitesse grand V, au gré des tendances, des innovations et des effets de mode. Ce qui était tendance hier sur les réseaux sociaux peut devenir complètement has been demain… Entraînant avec lui de nouvelles requêtes, de nouveaux angles, de nouveaux besoins de contenus.

Un exemple frappant : l’essor du mouvement « body positive » et des rondes ces dernières années. En quelques mois, on a vu exploser les recherches type « maillot de bain grande taille », « magasin ronde Paris » ou « mannequin plus size »… Forçant les marques à revoir leur façon de nommer et catégoriser leurs produits pour rester dans la course.

Autre tendance de fond : l’appétence croissante pour les produits locaux, éthiques et écolo-friendly. Là encore, les recherches « circuits courts », « made in France », « cosmétique bio », etc. se sont multipliées… Poussant les enseignes à verdir leur communication et leur référencement en catastrophe !

Face à ces basculements parfois brutaux des attentes consommateurs, impossible de se reposer sur ses acquis SEO. Ce qui marchait hier en termes de mots-clés et de contenus ne marchera peut-être plus demain. D’où l’impératif d’avoir toujours un coup d’avance, en détectant les signaux faibles annonciateurs des futures grandes tendances !

  1. Le raccourcissement des cycles de vie des contenus

Enfin, 3ème grande mutation qui plaide pour un SEO prédictif : le raccourcissement constant du « cycle de vie » des contenus, en particulier sur les thématiques d’actu, conso et lifestyle. Avec la multiplication des sources, la viralité des réseaux sociaux et l’immédiateté mobile, un sujet peut émerger et « buzzer » quelques jours… Puis retomber dans les limbes aussi sec, avant d’être remplacé par un autre !

Difficile dans ce contexte de concevoir des contenus qui durent, encore moins de les optimiser dans les règles de l’art SEO. Car le temps de briefer, écrire, retravailler et publier un article de blog, une fiche produit ou une landing page… La mayonnaise sera déjà retombée, et les internautes seront passés à autre chose !

Pour garder la main, les marques doivent donc apprendre à créer des contenus « éphémères », collés à une tendance et à une intention du moment. Avec une logique SEO de « guérilla » : on identifie une opportunité naissante, on frappe vite et fort avec un contenu hyper-optimisé… Quitte à le dépublier quelques semaines plus tard, une fois le soufflet retombé.

Un vrai changement de paradigme pour des équipes SEO habituées à construire dans la durée, autour de positions et de contenus pérennes. Mais un passage obligé pour rester dans le game et capter toutes les micro-opportunités générées par le web temps réel !

9.5.2. Les techniques et outils du SEO prédictif

OK, on a vu pourquoi le SEO devait devenir plus prédictif et « real-time » pour coller aux nouveaux usages des internautes. Reste à savoir comment, concrètement, développer cette capacité d’anticipation et de réaction au sein de ses équipes. Quels outils et méthodes utiliser pour repérer avant les autres les tendances émergentes à fort potentiel SEO ?

Voici quelques pistes et tactiques, à adapter en fonction de vos moyens et de vos thématiques.

  1. La social media listening

Première technique incontournable pour faire de la détection de tendances : la fameuse « social listening », qui consiste à surveiller en temps réel les conversations sur les réseaux sociaux pour y repérer les sujets et mots-clés émergents. Concrètement, cela passe par des outils type Hootsuite, Mention, Brandwatch ou Talkwalker, qui vont scanner Twitter, Facebook, Instagram, Reddit, les blogs… Et vous alerter à la moindre surchauffe sur une thématique !

L’idée est de traquer les hashtags, topics et expressions qui « montent » dans les conversations d’internautes… Pour être le premier à créer du contenu dessus. Par exemple, si vous détectez de plus en plus de posts et de partages autour de ‘#frenchtech’, ‘#startup’ ou ‘#levéedefonds’, c’est le moment de sortir votre article ou votre interview sur le sujet ! Idem si une polémique ou un bad buzz commence à enfler : en réagissant au quart de tour avec un contenu « à chaud », vous avez une chance de capter le trafic… Et d’apaiser la crise au passage.

Le plus de la social listening : elle donne accès à des données très qualitatives sur les aspirations, les humeurs et le vocabulaire des internautes. De quoi vraiment coller à leurs attentes et adapter son ton, plutôt que d’optimiser dans le vide sur des requêtes théoriques !

  1. L’analyse des micro-moments search

Autre piste pour faire de la prédiction de requêtes : s’intéresser de près aux « micro-moments », ces instants fugaces où les internautes sortent leur smartphone pour chercher une info en urgence. Typiquement : « Où manger une pizza sans gluten dans le 9ème », « Quel est le programme TV de ce soir » ou « Comment enlever une tache de vin rouge » ?

Le plus souvent, ces requêtes sont ultra-précises, géolocalisées et liées à un besoin immédiat. Elles ne durent que quelques heures… Mais peuvent générer un pic important de trafic qualifié pour qui saura les capter à temps ! D’où l’intérêt de les anticiper autant que possible, en mixant :

  • L’utilisation d’outils comme Google Trends ou Glimpse, qui repèrent en temps réel les topics qui montent dans les requêtes Google. De quoi ajuster son content planning en fonction de l’actualité et des centres d’intérêt du moment.
  • L’analyse des données de trafic « en direct » dans Google Analytics (menu Temps Réel), pour voir les pages qui décollent subitement… Et optimiser dans la foulée les meta-titles et descriptions.
  • Le suivi des événements et des grands RDV du calendrier (Noël, Black Friday, Saint Valentin…), générateurs de peaks de recherche ultra-ciblées et qualifiées (« idées cadeaux original femme », »astuces déco table noel », »bon plan smartphone black friday »…).

En combinant ces signaux, vous pourrez anticiper et « canarder » un maximum de micro-moments porteurs pour votre audience… Et rafler la mise en SEO le jour J !

  1. Le suivi des tendances de consommation

Pour aller encore plus loin, pensez aussi à surveiller les grandes tendances conso et lifestyle qui se profilent… Et leurs impact potentiels en SEO ! Car les requêtes des internautes sont souvent le reflet de comportements et d’aspirations plus profonds, qui se construisent sur le long terme. En avoir la primeur, c’est se donner les moyens d’être le premier à se positionner dessus !

Pour ce faire, plusieurs moyens à votre disposition :

  • Lire les études et rapports de tendance publiés par les grands instituts (Nielsen, Kantar, Ipsos…) ou cabinets (TrendWatching, Nelly Rodi…). Ils sont souvent très en avance et décryptent bien les signaux faibles.
  • Suivre les influenceurs, les cool hunters et les blogs avant-gardistes de votre secteur. Ils ont le nez pour dénicher les tendances 6 mois avant les autres, c’est leur métier !
  • Éplucher les magazines et la presse spécialisée, dans une logique de veille concurrentielle et sectorielle. Voir ce qui se fait ailleurs est toujours inspirant pour ajuster sa feuille de route SEO.
  • Analyser les remontées terrain de vos vendeurs, conseillers clientèles, SAV… Ils sont aux premières loges pour capter les envies et frustrations des consommateurs !
  • Mener des études ad hoc (sondages, focus groups…) sur vos cibles pour détecter leurs intentions, motivations et irritants du moment. Du sur-mesure qui peut rapporter gros.

L’idée est vraiment de multiplier les sources et les angles pour avoir une vision globale de ce qui se prépare, et impactera bientôt les recherches online. Un vrai travail d’enquête et de recoupement, qui peut (doit) mobiliser toute l’entreprise : du marketing aux achats en passant par la R&D et le service client !

  1. Les outils de content insights et de data mining

Enfin, dernière arme fatale du prédictif : les outils de content intelligence nouvelle génération, qui utilisent le big data et le machine learning pour détecter en amont les sujets et formats « à potentiel ». Pour faire simple, ces solutions vont passer au crible des tonnes de datas (signaux sociaux, recherches, contenus publiés…) pour en dégager des insights clés :

  • Les sujets les plus porteurs et engageants sur une thématique
  • Les angles et questions les plus recherchés par les internautes
  • Les formats les plus efficaces (vidéos, articles, infographies…)
  • Les canaux les plus appropriés pour diffuser le contenu
  • Le meilleur moment pour publier (jour, heure…)

De la prédiction SEO pure et dure, en somme ! Le tout assorti de recommandations concrètes pour créer le contenu parfaitement optimisé en fonction de ces insights. Du sur-mesure qui peut s’avérer précieux pour activer les bons leviers au bon moment… Et devenir imbattable en SEO !

Parmi ces solutions de content intelligence, on peut citer :

  • BuzzSumo : un outil qui analyse le buzz et l’engagement autour de n’importe quelle thématique, et trouve les contenus les plus performants. Idéal pour dénicher des idées d’articles qui vont cartonner.
  • Concured : une plateforme qui utilise le NLP pour décortiquer les conversations sur le web (réseaux sociaux, forums, blogs…) et en extraire les « content gaps », c’est-à-dire les sujets sous-exploités à fort potentiel. Malin !
  • Ceralytics : cet outil français scanne les contenus d’un site ou d’une thématique et donne des recommandations SEO ultra-pratiques (mots-clés, questions, formats…) pour chaque segment d’audience. Le top pour personnaliser à l’extrême !

Alors certes, ces outils sont encore assez chers et complexes à prendre en main. Réservés aux gros sites ecommerce ou médias, qui ont les moyens d’investir dans un arsenal data pointu. Mais ils préfigurent une vraie révolution dans la façon de penser et d’optimiser ses contenus. Un SEO « data-driven » qui mise sur la compréhension fine des intentions pour produire le bon contenu au bon moment… Plutôt que d’empiler aveuglément les mots-clés !

9.6. L’invasion des Rich Snippets dans les SERP

Difficile de passer à côté du phénomène quand on tape une requête sur Google : depuis quelques années, les fameuses « positions 0 » trustent de plus en plus souvent le haut des pages de résultats ! Featured snippets, info boxes, cartes locales, blocs de questions/réponses, avis, recettes, produits… Les opportunités de se démarquer visuellement et d’apporter de la valeur ajoutée aux internautes se multiplient. En mobilisant toujours plus de place au détriment des bons vieux liens bleus organiques !

Un vrai bouleversement pour les référenceurs, qui oblige à repenser sa stratégie de bout en bout. Car être présent sur ces éléments enrichis devient peu à peu un incontournable pour exister sur les requêtes concurrentielles… Et capter le maximum de clics ! Décryptage d’un levier SEO à fort potentiel, et conseils pour en tirer la quintessence.

9.6.1. C’est quoi un « rich snippet » ?

Avant d’aller plus loin, petite mise au point sémantique. Qu’entend-on exactement par « rich snippet » et pourquoi ce terme s’est-il imposé ?

Littéralement, un « rich snippet » est un extrait (snippet) enrichi dans les résultats Google. Techniquement, il s’agit d’un résultat de recherche classique (lien + méta-description) « boosté » avec des informations additionnelles : image, avis clients, prix, votes, breadcrumbs… Ces données sont le plus souvent tirées des fameuses « balises structurées » intégrées dans le code des pages (Schema.org, Open Graph…).

Cette définition large englobe donc en théorie tous les résultats « enrichis », des étoiles d’avis aux extraits optimisés en passant par les questions/réponses. Mais dans le jargon courant du SEO, on a pris l’habitude de distinguer :

  • Les « rich snippets » à proprement parler : résultats individuels agrémentés d’éléments supplémentaires (rating, prix…) mais sans changement de forme. On les voit surtout sur les requêtes transactionnelles type « [produit] + avis » ou « [marque] + prix ».
  • Les « enriched results » ou résultats enrichis : blocs de résultats enrichis qui changent complètement le format et l’occupation des SERP. C’est le cas des Featured Snippets, des info-boxes, des « People Also Ask », des blocs locaux, images, actualités, flights, jobs…

Deux facettes d’un même phénomène en somme : la volonté de Google d’afficher toujours plus d’informations directement dans ses pages de résultats, pour répondre aux besoins des internautes de façon toujours plus complète et immédiate. Un mouvement de fond qu’on a vu s’accélérer années après années, et qui atteint aujourd’hui des sommets en redessinant complètement l’expérience de recherche !

9.6.2. Les principaux types de « rich snippets »

Mais assez de théorie, place à la pratique ! Tour d’horizon des principaux rich snippets à connaître sur le bout des doigts en 2023. Et le moins qu’on puisse dire, c’est qu’il y en a pour tous les goûts et toutes les thématiques.

  1. Les featured snippets

Impossible de passer à côté de ce « résultat zéro », furieusement convoité par les marques ! Apparus dès 2014 sur Google, les featured snippets s’affichent dans un encadré tout en haut des SERP, au-dessus des liens sponsorisés. Ils contiennent un extrait (texte, liste, tableau) censé apporter une réponse directe à la requête de l’internaute, sans même avoir à cliquer.

L’intérêt est donc immense en termes de visibilité, d’autant que ces snippets sont souvent repris par l’Assistant Google pour une restitution vocale. Cerise sur le gâteau : depuis 2021, les featured snippets « de paragraphe » sont dédoublonnés et n’apparaissent plus dans les résultats classiques. Autrement dit, vous pouvez cumuler deux résultats en un et doubler votre présence !

Mais Google se montre de plus en plus exigeant sur la qualité des extraits affichés. Pour espérer se hisser en « position 0 », mieux vaut miser sur des contenus ultra-pertinents, factuels, bien structurés… Et qui collent parfaitement à l’intention de recherche (« search intent »). Veillez à utiliser les balises <h1>, <h2>, <ol>, <ul>, <p>… pour aider Google à trouver le bon extrait !

  1. Les People Also Ask

Cousins des featured snippets, les blocs « People Also Ask » (PAA) référencent les questions connexes fréquemment posées par les internautes sur un sujet donné. Ils s’affichent le plus souvent sous la position zéro, et sont « extensibles » : chaque clic sur une question révèle de nouvelles questions associées, à l’infini ou presque !

L’avantage de ces PAA est double. D’une part, ils offrent une grande visibilité aux sites qui parviennent à y placer un extrait. D’autre part, ils sont une formidable source d’inspiration pour trouver de nouvelles idées de contenus « question-driven » ! En surveillant les PAA sur votre thématique (outils SEMrush, ALsoAsked…), vous pourrez identifier les interrogations les plus populaires… Et produire les articles parfaitement calibrés pour y répondre.

Là encore, la clé est de structurer intelligemment ses contenus en adoptant un format question/réponse inspiré des célèbres FAQ. Pour maximiser ses chances, rien de tel que d’utiliser le balisage dédié « FAQPage » de Schema.org, qui indique explicitement à Google vos blocs de Q/R. Malin !

  1. Les rich snippets d’avis

Vous les connaissez forcément : ce sont ces petites étoiles jaunes qui s’affichent juste en-dessous de certains résultats, avec une note sur 5 et un décompte du nombre d’avis. Un réel atout pour se démarquer dans les SERP… Et surtout rassurer les prospects avant le clic ! Car qui dit avis clients dit crédibilité, qualité, réassurance : des critères décisifs au moment de faire son choix.

Pour obtenir ces rich snippets tant convoités, deux possibilités :

  • Collecter et afficher les avis directement sur vos pages via un système maison. Il faudra alors intégrer le balisage « aggregateRating » et « Review » de Schema.org, en respectant bien les guidelines de Google (avis authentiques, pas de doublon, recoupe possible avec une source externe…).
  • Passer par une plateforme tierce de collecte d’avis type TrustPilot, Verified Reviews, Avis Vérifiés… L’avantage : une intégration simplifiée, une meilleure crédibilité perçue, et surtout une synchronisation automatique avec les Rich Snippets de Google ! À vous de choisir l’option la plus adaptée à vos process et à vos enjeux de notoriété. Mais dans les deux cas, pensez à bien mettre en avant les avis sur vos pages produits, articles de blog, fiches entreprise… Et incitez vos clients satisfaits à laisser leur retour. Un cercle vertueux qui boostera votre CTR… Mais aussi vos ventes !
  1. Les rich snippets de produits

Spécial e-commercants : depuis fin 2020, Google propose un nouveau type de rich snippet spécialement conçu pour mettre en avant les fiches produits. Au programme : une belle photo, le prix actuel, le prix barré (si promo), et la mention « En stock » ou « x produits »… De quoi attirer l’œil et capter plus de clics qualifiés !

Pour en profiter, vos fiches produits doivent contenir des attributs structurés via les balises « Product », « Offer » et « AggregateOffer » de Schema.org. Des informations que Google recoupera avec celles de votre flux produits en Google Merchant Center. L’idéal est donc de maintenir des données cohérentes et à jour sur tous les fronts !

Point bonus : depuis 2021, il est aussi possible d’afficher des liens annexes sous sa fiche produit, pour renvoyer vers d’autres pages du site (« Disponible en 3 couleurs », « Livré en 24h »…). Une opportunité en or pour booster son taux de conversion… Et rentrer dans les petits chaussons de l’utilisateur, en anticipant ses prochaines questions !

  1. Les extraits optimisés pour les applications

Parmi les « nouvelles frontières » des Rich Snippets, on trouve également les extraits spécialisés pour les apps mobiles. Avec le développement des Progressive Web Apps (PWA), Google propose en effet de riches possibilités pour mettre en avant ces expériences « applications » directement dans les SERP.

Au menu des extraits optimisés pour les PWA :

  • Le statut d’installation de l’application (« Installer », « Ouvrir »…)
  • L’icône de l’app
  • Des captures d’écran dans un « caroussel » scrollable
  • Des call-to-actions (« En savoir plus », « Utiliser l’application »…)

De quoi offrir à l’utilisateur un vrai « avant-goût » de l’expérience proposée… Et le challenger directement dans son parcours mobile, sans même avoir à passer par l’App Store ou le Google Play Store. Du « mobile-first » qui pousse encore plus loin la logique du « full SERP » cher à Google !

Pour en bénéficier, votre site doit répondre aux critères des PWA (HTTPS, service worker, manifest…), mais aussi implémenter de nouveaux attributs Schema.org (« speakable », « applicationCategory »…) pour aider Google à comprendre la nature « applike » de vos contenus. Un chantier de longue haleine… Mais un effet waouh garanti dans les SERP mobiles !

Pin It on Pinterest

Share This