Comme ChatGPT est cassé ce matin, je dois arrêter mes tests, j’en profite pour reprendre la plume, partager quelques réflexions et ouvrir la discussion, si vous le souhaitez.

La communauté du SEO connaît depuis quelques mois une excitation telle qu’elle n’en avait pas connu depuis des années, et c’est très rafraichissant ! La raison ? Les possibilités nouvelles offertes par l’intelligence artificielle (IA).

Cette excitation est encore montée d’un cran ce week-end avec la mise à disposition de chatGPT par openAI.

ChatGPT provoque chez tous ceux qui le testent un rare effet whaou et la certitude qu’il y aura un avant et un après.

Ces dernières années, lorsqu’on souhaitait créer massivement du contenu SEO, plusieurs options étaient à notre disposition.

  • La génération de “soupe” : technique bien connue des SEO black hat. On récupère de multiples contenus de sources différentes, on les mélange et, grâce aux chaînes de markov, on en génère un texte unique. Le texte est absolument imbitable pour un humain, mais fait (faisait ?) la blague auprès des moteurs de recherche. Cette technique ne fonctionne plus depuis quelques années, sauf éventuellement pour des stratégies très court-termistes.
  • Le content spinning : à partir d’un “master spin” rédigé par un rédacteur spécialisé, vous pouvez générer quelques centaines, voire quelques milliers de textes uniques. Très utilisés sur les sites proposant des listings (e-commerces, petites annonces, annuaires, …), l’efficacité est variable. Les rares rédacteurs spécialisés ont généralement peu de disponibilités.
  • Les rédacteurs offshore : rédaction de contenus dans des pays francophones avec un niveau de vie inférieur qu’en France. Le plus utilisé étant probablement Madagascar avec des prix qui peuvent descendre jusqu’à 1 € les 100 mots.
  • Les rédacteurs français : de meilleure qualité, mais bien plus chers que des rédacteurs offshore. Les prix doivent commencer autour de 4 € les 100 mots, et peuvent grimper très haut pour des rédacteurs spécialisés.

Ci-dessous, vous pouvez voir le début d’un contenu généré par une IA.

Ce contenu fait 1 700 mots. Il a été généré en 5 secondes et m’a coûté 8 centimes.

Le fond peut se discuter. Mais sur la forme, c’est parfait : aucune erreur d’orthographe, de syntaxe ou de grammaire.

Pour moi, c’est une évidence, la rédaction off shore va disparaître. C’est malheureux pour ceux qui en vivent, mais l’IA produit déjà des contenus de bien meilleure qualité, bien plus rapidement et pour 200 fois moins cher. Et ce n’est que le début !

La technique du content spinning vit sûrement ces derniers moments également, même si sur de gros volumes, la question du coût peut encore se poser temporairement.

Quant aux rédacteurs français, ils doivent s’adapter ou mourir. Si l’on recherche de la qualité, ils sont encore indispensables, car les contenus IA sont imparfaits et peuvent contenir des erreurs.

Deux solutions s’offrent à eux :

  • Utiliser l’IA pour devenir des “rédacteurs augmentés” et décupler leur productivité.
  • S’ultra spécialiser pour produire des contenus à haute valeur ajoutée. Ce qui est aujourd’hui très rare, l’immense majorité des rédacteurs SEO se contentant de synthétiser / reformuler des contenus déjà existants (et il est difficile de faire autrement vu les tarifs pratiqués).

Les possibilités offertes par l’IA vont immanquablement poser des problèmes à Google : une quantité astronomique de contenus sans valeur ajoutée est en train de se déverser sur le web et va tirer vers le bas la qualité moyenne de ses résultats. Il va devoir réagir.

Pour rappel, l’apparition de l’algorithme Google Panda en 2011 était une réaction à l’apparition des “fermes de contenus” (et notamment celles de l’entreprise Demand Media qui venait d’entrer en bourse). Les volumes de contenus produits par les fermes de contenu de l’époque sont ridicules par rapport à ce qui se fait aujourd’hui.

Depuis quelques mois, les SEO remarquent que Google est de plus en plus exigeant dans l’indexation des contenus (filtre 4 pages, non indexation de contenus, …), c’est sans doute une première réaction.

Google est-il en mesure d’identifier un contenu généré par une IA ? Les avis sont partagés, mais en tout état de cause, cela nécessiterait des ressources colossales pour le faire à l’échelle du web.

Est-ce d’ailleurs vraiment un critère ? Pourquoi sanctionner spécifiquement un contenu IA si celui-ci est de meilleure qualité qu’un contenu low cost ?

Autre tendance : depuis quelques années, Google tend à faire évoluer son moteur de recherche vers un moteur de réponse.

Pourquoi proposer une liste de 10 résultats à un internaute qui vont l’obliger à prendre du temps, à cliquer et à se débrouiller pour trouver sa réponse, si on sait lui répondre directement ?

D’où l’apparition des “positions zéro” depuis quelques années. Comme dans cet exemple.

La logique derrière tout ça ? Développer la recherche vocale.

Le marché de la recherche avec l’interface d’un navigateur web (smartphone ou desktop) est déjà mature et largement dominé par Google. Le relai de croissance du marché de la recherche se situe dans les situations où vous n’êtes pas en mesure d’utiliser un navigateur web. Quand vous conduisez, quand vous cuisinez, quand vous êtes sous la douche.

OpenGPT n’est ni plus ni moins qu’un moteur de réponse, et des quelques tests que j’ai pu faire, les réponses sont souvent bien plus satisfaisantes que les positions zéro de Google.

Cela va relancer la bataille de la recherche vocale qui s’est essoufflée depuis quelques années. Qui demande aujourd’hui autre chose que la météo à Google Assistant, Siri ou Amazon echo ?

Dernier point : la monétisation. Si les moteurs de réponses prennent enfin leur envol, la question du trafic sur les sites web (déjà bien mis à mal par la part toujours croissante des recherches « zéro clic ») et de la monétisation des éditeurs ne risque pas d’aller dans le bon sens.