L’un des travail du référenceur est d’estimer la faisabilité de se positionner sur un mot clé donné.

Cette faisabilité dépent à la fois du poids du site en terme de SEO et de la concurrence existente.

Auparavant, j’estimais la concurrence « instinctivement ».

Depuis quelques temps, j’essaie de faire une estimation plus « scientifique » et d’industrialiser la chose.

Le premier réflexe est de récupérer l’indice de concurrence proposé par Google dans le « Keyword Generator », mais on s’aperçoit que les résultats sont très peu satisfaisants.

J’ai donc décidé de me baser sur du concret et d’étudier directement les SERPs.

J’ai ainsi développé un petit script qui me permet de récupérer, pour une page de SERP, les éléments suivants :

  • Le PR moyen des URLs retournées
  • Le PR moyen des noms de domaine des URLs retournées
  • Le nombre de homepage
  • Le nombre d’annonces adwords
  • Le nombre de résultats pour la recherche « allintitle:mot clé »

Vous pouvez essayer ce script (sans prétention) en cliquant ici.

(Si vous voulez bourriner, je vous offre volontier ce petit script contre un tweet ;-) )

Là ou ça ce complique, c’est lorsque j’essaie de « mixer » ces données pour en sortir un « indice ce concurrence ». Mes premières tentatives sont loin d’être satisfaisantes, je n’ai probablement pas fait assez de statistiques en cours…

Si vous voulez vous prêter à l’exercice, j’ai récupéré les données pour les 200 mots clés générant le plus de trafic sur pixmania.fr (selon SEMrush), vous pouvez les retrouver ici : https://spreadsheets.google.com/ccc?key=0AlGEKbx6mm7OdElBdGd6YU1aNldJWVJQdFRxVlk5R2c&hl=fr

Que pensez-vous de cette démarche ? Utilisez-vous des techniques similaires ?