Veille SEO 2022, semaine 17
Nous sommes la 17ème semaine de l'année…
... et je constate qu'il y a de moins en moins d'articles en français. Je comprends qu'on aie tous été occupés ces dernières semaines, mais je serai ravi de pouvoir mettre en lumière plus de francophones. Pour rappel, chaque semaine, on vous envoie un email, mais on publie aussi les archives sur le site, avec des backlinks en dofollow.
... Et oui, parce que chez Soumettre.fr, en plus de vendre des liens, maintenant, on en offre. Ne le dites pas à Rodrigue ;-)
Bonne lecture, et n'oubliez pas de vous amuser !
SpamBrain : récap de 2021
Google a publié un article sur le blog Search Central, qui parle de SpamBrain : c'est le nom de l'algo qui lutte contre le spam, et qui est 200 fois plus efficace que "lorsqu'ils ont commencé, il y a 20 ans", et six fois plus efficace qu'en 2020.
SpamBrain est un système de prévention du spam, basé sur de l'intelligence artificielle, lancé en 2018.
La définition du spam par Google est assez large: ça parle des sites d'arnaque, aussi bien que des liens "non-naturels", en passant par le harcèlement en ligne. Difficile de savoir quelle est la part de cet algorithme qui ciblerait des actions "normales" (comme, par exemple, acheter des liens), versus un comportement dangereux pour l'utilisateur final.
Le moteur insiste sur "Product Update", la mise à jour qui ciblait les sites publiant des guides d'achat sur des produits qu'ils n'avaient pas testés, en réécrivant simplement la description fournie par le fabriquant.
Ils concluent en invitant les gens à dénoncer le spam qu'ils verraient dans les SERPs. Ça sert sûrement à entraîner les algos de machine learning, dont on peut supposer qu'ils sont encore loin de détecter tout seuls les actions un peu discrètes.
Encore une remarque : Google reconnaît que les liens sont toujours utilisés pour faire ranker les sites, et que le Link Spam Update visait à empêcher les liens "non-naturels" de gêner la qualité des recherches. À lire entre les lignes : si votre site est qualitatif et que vous pensez sincèrement qu'il serait légitime qu'il se place sur une requête, le fait de le booster ne gêne pas la qualité des résultats : vous ne risquez rien ;)
GPT-3 devient consultant SEO
Vincent Terrasi a publié, sur SearchEngineJournal, les résultats d'un test où il s'est amusé à demander à GPT-3 de réaliser des tâches de référencement basiques.
GPT-3 (pour "Generative Pre-trained Transformer 3"), c'est le moteur d'IA proposé par OpenAI : il est sensé comprendre et pouvoir produire des échanges en langage naturel.
Pour voir jusqu'où le moteur était capable d'aller, Vincent a eu la bonne idée de lui demander de s'occuper de référencement naturel.
Par exemple, il lui a demandé de rédiger des petites histoires d'horreur SEO. L'algo s'en est très bien sorti, ce qui montre qu'il est capable de se calquer sur un modèle pour produire des contenus courts (type meta-descriptions ?).
Ensuite, Vincent a demandé à GPT-3 de créer de toutes pièces un discours entre Aleyda, une SEO expérimentée, et Paul, un newbie (on pense tous au même Paul ?), avec un contexte particulier : Paul a mal géré une mission, et la preprod de son client est indexée. Non seulement le dialogue qui en sort est cohérent, mais le bot se paye le luxe de conseiller à Paul de mettre un robots.txt sur sa preprod pour demander à Google de ne plus la regarder.
Il y aplein d'autres exemples dans l'article, et une conclusion qui aborde les limites de la technologie.
Le Keyword Mapping
Le keyword mapping, c'est le fait d'associer une URL sur votre site à chaque mot-clé que vous visez.
Ça se fait souvent avant même la création du site, via un mindmap qui deviendra l'arborescence.
Ici, Daniel Polacek propose d'appliquer la même méthode, mais à un site déjà existant, dans le cadre d'une campagne de SEO.
Une des clés, c'est de catégoriser vos expressions de recherche pour les regrouper dans des "clusters" naturellement proches, et assez faciles à compléter même à la main si vous connaissez un peu votre thématique, et en surveillant vos concurrents.
Ensuite, c'est "facile" : il faut trouver, sur votre site, quelle URL serait la plus à même de ranker, pour chaque mot-clé de la liste. Si vous avez un doute, c'est qu'il y a une situation à résoudre : votre contenu ne matche pas avec vos ambitions. Il faudra alors, soit le compléter sur l'URL existante, soit créer une page complémentaire (et la linker depuis la page existante).
Vos trois premiers tests SEO
Emily Potter bosse pour SearchPilot, une plateforme qui permet d'automatiser des tests A/B pour le SEO. Elle va nous vendre sa popotte, c'est le mauvais côté. Le bon, c'est qu'elle connaît son sujet sur le bout des doigts.
Pour commencer, Emily souligne que les tests SEO ne peuvent avoir que trois "outcomes" : améliorer votre CTR à position égale, améliorer vos positions, ou ranker sur de nouveaux mots-clefs.
À partir de là, Emily nous invite à formuler une hypothèse forte (et c'est ce point qui m'a vraiment plu) : "pour améliorer mes positions, un titre court serait plus efficace". Pour valider cette hypothèse, vous mettez un test en place : réécrivez 50% de vos titres en les raccourcissant. Un mois plus tard, vous relevez toutes les positions en comparant : pages non modifiées (groupe contrôle), avant et après, et pages modifiées, avant et après. Si l'hypothèse se confirme, on devrait avoir un impact visible immédiatement ou presque.
Emily va plus loin dans sa méthodologie : pour prioriser les tests, et savoir quelles hypothèses valider en premier, il faut considérer le "Level Of Effort" nécessaire afin de pouvoir trancher. Elle recommande de faire un graph en "quadrant" (4 parties) pour avoir le LoE sur un axe, et l'impact attendu sur l'autre.
Pour finir, Emily propose trois tests : les titles (ajouter des prix, mettre les mot-clés plus en avant), le ciblage des mot-clés on page (ajouter du contenu, réécrire les H1, etc) et ajouter des données structurées pour enrichir les résultats.
La bonne nouvelle, c'est qu'au lieu de considérer ça comme des "chantiers" qui peuvent être longs et fatigants, il faut le voir comme des tests à mettre en place sur quelques pages pour valider si l'impact est positif. Une fois que vous saurez que c'est le cas, il sera facile de vous convaincre que c'est pour la bonne cause.
4 tâches SEO technique critiques
En tant que développeur, j'ai longtemps été atterré par le manque de compétences techniques dans le monde du SEO. Je ne peux que constater que c'est en train de changer : si vous n'avez aucune culture tech, il va falloir vous y mettre.
Pour commencer, ce petit article écrit par Corey Patterson vous permettra de mettre le doigt sur les quatre premières choses à vérifier.
L'architecture du site : très vaste sujet, on en arrive vite à comparer les méthodes de visualisation et à potasser la théorie des graphes.
La crawlabilité : pour vérifier que vos pages renvoient des codes HTTP 200, en général, il suffit d'un script bash et de curl.
L'indexabilité : Crawlé, c'est bien, mais indexé, c'est mieux : il faut vérifier, pour chaque URL, que rien n'empêche l'indexation: meta-robots, header X-Robots-Tag, canonical en erreur, etc.
Page Experience : de l'UX à la performance web, là aussi, c'est le terrier du lapin.