Par curiosité, je me suis amusé à constituer une base de 1 353 676 domaines du web francophone.
Pour chacun de ces domaines, j’ai récupéré l’adresse IP vers lequel il pointe.
Cet échantillon n’est par définition pas exhaustif, il n’a pas été établi selon une méthodologie statistique, mais je pense qu’il est suffisamment volumineux pour être représentatif du web francophone.
Voici quelques données qui me semblent intéressantes.
Nombre de domaines : 1 353 676
Nombre d’IP uniques : 324 615
Nombre d’IPs avec un seul domaine : 217 687
Domaine le plus long (115 caractères !) : http://depannage-chauffage-chaudiere-reparation-vente-installation.depannage-chaudiere-entretien-pose-95-eaubonne-adep.com/
Ce qui m’intéressait d’avantage, c’est d’analyser les IPs, et c’est assez impressionnant !
Les 20 adresses IPs qui hébergent le plus de domaines en hébergent 270 674, soit 20% de l’ensemble de mon échantillon !
213.186.33.19 – 43 645 domaines – (Serveur mutualisé OVH)
195.20.15.131 – 37 840 domaines – (Serveur over-blog)
209.85.147.132 – 31 981 domaines – (Serveur blogspot.com)
213.186.33.2 – 24 800 domaines – (Serveur mutualisé OVH)
213.186.33.87 – 20 918 domaines – (Serveur mutualisé OVH)
213.186.33.4 – 17 360 domaines – (Serveur mutualisé OVH)
195.137.184.101 – 15 715 domaines – (Serveur canalblog)
91.198.105.113 – 8 724 domaines – (e-monsite.com)
213.186.33.5 – 8 489 domaines – (Serveur mutualisé OVH)
88.190.253.247 – 7 462 domaines – (Serveur mutualisé Dedibox)
193.252.122.54 – 7 409 domaines (Serveur pages perso Orange)
213.186.33.17 – 7 386 domaines – (Serveur mutualisé OVH)
217.70.184.38 – 6 488 domaines (Serveur Gandi servant aux redirections)
88.190.253.248 – 5 875 domaines (Serveur mutualisé Dedibox)
81.88.48.95 – 5 722 domaines (Serveur mutualisé register.it)
193.252.138.16 – 5 311 domaines – (Serveur Pages Jaunes)
193.252.138.75 – 5 263 domaines (Serveur Pages Jaunes)
213.186.33.16 – 5 214 domaines – (Serveur mutualisé OVH)
81.88.57.68 – 5 072 domaines (Serveur mutualisé register.it)
OVH est vraiment impressionnant ! Les IPs en 213.186.x.x (qui semblent être les serveur mutualisés d’OVH) hébergent 140 458 domaines de mon échantillon, soit 10,37 % !
D’un point de vue référencement, ces chiffres m’évoquent trois remarques :
– Le « voisinage » : On a l’habitude de dire que les sites hébergés sur la même adresse IP que le vôtre peuvent vous porter préjudice si ils sont spammys ou ont un contenu litigieux (casino, poker, porno, torrent, …).
Vu les volumes en question, ça m’étonnerait vraiment que Google sanctionne tous les sites d’une même IP, sauf dans des cas vraiment exceptionnels.
Il n’en reste pas moins que sur un hébergement mutualisé, vous n’avez aucune maîtrise sur vos voisins, et il est quasi-certains qu’il y en ait de peu recommandables.
– Le linking : De même, lorsqu’on parle de linking on évoque souvent la nécessité de varier les adresses IPs de provenance des liens. Si vous êtes sur un mutualisé OVH en 213.186.x.x, ce sera plus difficile qu’en étant tranquile sur un serveur dédié !
– Le crawl : Lorsque les crawlers des moteurs de recherche crawlent le web, ils limitent le nombre de connexions simultanés sur une IP donnée. Ne serait-ce que pour éviter de faire tomber le serveur qui se cache derrière… Si vous avez un site avec un gros volume de pages hébergés sur un service mutualisé, il est probable que votre volume de crawl ne sera pas optimal.
Si les hébergements mutualisés sont idéals pour de petits sites de part leur coût et leur simplicité d’utilisation, ils sont à éviter dès lors qu’on a un site plus volumineux avec des enjeux SEO importants. Le développement du cloud computing a considérablement réduit le prix d’entrée des serveurs dédiées. On trouve désormais de plus en plus d’offres autour de 10 € par mois.
Pour avoir fait des tests de référencement avec seulement 10 ips, personnellement, j’avouerai qu’on parle trop d’IP dans le SEO, et que selon moi, c’est une problématique vraiment minime. Surtout si on se fout sur des IPs mutualisées. (histoire de se noyer dans la masse)
Pour ce qui est du linking, être soi-même sur un dédié ne change pas grand chose en fait.
Vu que l’on « suppose » qu’il est préférable d’obtenir des liens en provenance d’IP distinctes, si je suis ton discours, on a autant de chance de recevoir des liens à partir de l’ip d’OVH.
Qu’en penses tu ?
Tu as raison ;-)
Ensuite, c’est toujours mieux de recevoir des liens depuis une IP différente de la sienne.
Et dans ce cas là c’est plus facile quand tu es sur un dédié ;-)
Je partage à 100% tes conclusions. Je ne vois pas comment l’adresse IP pourrait être un critère discriminant pour Google.
Très très bonne idée d’avoir analyser cela, en revanche je n’aurais pas tiré les mêmes conclusions.
Je serais très curieux de connaître tes conclusions, toi qui doit être un habitué de ces problématiques ;-)
Sympa l’analyse.
Maintenant il faudrait pouvoir comparer l’impact sur le référencement entre 2 domaines ayant des volumétries et des typologies de liens à peu près équivalentes (je sais, c’est impossible) mais dont l’origine des liens entrants seraient incomparables (exemple site A linking provenant majoritairement du même réseau AS, comme OVH, et site B ayant un maillage provenant de multitudes d’IP éloignées, même provenant d’autres pays).
Si quelqu’un veut se lancer…
Sinon, je rejoins ton point de vue sur le voisinage, c’est juste impossible pour Google de différencier sur ce type de réseau… On a toujours un mauvais voisin ;)
C’est sympa le domaine en 115 caractères… sauf le jour où il faut en faire de la pub à la radio : rendez-vous sur : h**p://blablabla…blablabla…blablabla.
Faut pas chercher, c’est un linkeo ^^
Concernant ta réflexion sur le crawl, ton idée semble logique. Cependant un test a déjà t’il était mené pour comparer la vitesse d’indexation sur le court terme?
Non,
C’est quasiment impossible de faire deux tests dans des conditions strictement identiques.
De plus, je pense qu’il n’y aurait un impact que sur des sites très volumineux.
Je suis allé jeter un coup d’oeil sur le domaine le plus long pour savoir qui était derrière ça… Je n’ai même pas été surpris ^^
Ton échantillon est a mon avis suffisamment grand pour qu’on puisse tirer des conclusions. D’ailleurs c’est vraiment sympathique de ta part de les partager avec nous
Maintenant je vais me permettre de faire des extrapolations :
1- Soit Google ignore les adresses IP dans la partie transfert de jus
2- Soit Google utilise des quotas pour les IPs avant de regarder de près
La deuxième hypothèse me semble être une orientation à prendre en compte et comme un ratio du type 1 adresse IP pour x domaines référents (qui reste à définir ou de façon empirique avoir une limite).
Maintenant je pense que Goole peut détecter un grand volume voir (90 %) des liens référents issus de différents noms de domaines mais d’une seule adresse IP.
Très bon analyse.
Après c’est vrai qu’un serveur dédié permet d’être plus libre mais il faut aussi avoir les compétences pour l’adminnistrer et le sécuriser. D
Pour ceux que ça intéresse, on peut voir avec cet outil quels sites sont hébergés sur le même serveur : http://www.axandra.com/free-online-seo-tool/shared-hosting-check.php
Super idée et merci du partage – C’est vrais que ca apporte aussi un oeil nouveau sur tous les « mythes/ou pas » concernant les IP et le référencement
Encore heureux qu’on ne se fasse pas allumer par les domaines sur la même IP ! Sinon tu aurais des soucis à te faire :
csexe.org
arnaud-hanane.fr
:D
@ tous les commentaristes ne partageant les conclusions sur le crawl de cet article :)
Il est clair que ces conclusions sont vrais pour des sites à fort volume et non pas des sites de 2, 3, 10 voir 100 milles pages. Ce type de sites sont trop petits pour que l’on puisse s’apercevoir du moindre blocage quant au crawl de Google (et encore) mais vous imaginez bien que plus il y a de volume plus l’effet est démultiplié. Ensuite ces conclusions sont logiques et techniques, comment voulez-vous que Google puisse gérer ces queue et éviter de faire tomber les serveurs ? ces le seul moyen, sinon je vous raconte pas les plaintes et les indexations qui suivraient :)
Pensez vous pour du référencement à l’étranger le fait d’avoir une adresse IP étrangère(en plus du domaine ) soit un plus ou plutôt gadget ???
Merci :)
En effet, on accorde trop d’importance aux adresses IP.
Cependant, le taux de sites douteux par IP doit certainement compter dans l’analyse des liens et de l’aspect artificiel de ceux-ci par les équipes anti-spam des moteurs de recherche. Je doute que la majorité des sites hébergés par OVH soient des sites douteux, bien au contraire, vu que la part de marché de cet acteur d’Internet français est particulièrement importante, et s’étend à l’Europe et bientôt aux USA et plus généralement au monde entier.
Bref, avoir des liens issus de 1.000 annuaires web tous hébergés sur la même adresse IP où n’apparaissent que ces annuaires est peu pertinent. Mais avoir 1.000 liens issus de 1.000 sites aux WHOIS différents, lancés à des dates différentes, utilisant des CMS distincts et le tout dans des contextes différents peut certainement aider à gagner en positions, même s’ils sont tous issus de la même adresse IP.
Aussi, j’aurais tendance à dire que des liens en grande quantité issus de la même adresse IP sont un signal potentiel de spam, qui peut éventuellement déclencher une enquête plus poussée par les équipes anti-spam, mais ne peut être utilisé comme unique signal de liens artificiels, même en nombre.
Martin,
Je te lis souvent sur les blogs seo, et comme d’habitude, tu fais de très longs commentaires.
Bon.
Je veux bien. Mais sur quoi tu te bases pour avancer toutes ces choses ? Des tests ? Des expériences persos recoupées et analysées ? Parce que franchement, là, je ne vois que de l’imagination ou de la déduction intuitive, basée sur du pseudo bon-sens.
Ma question est sincère : As-tu une équipe en R&D chez petit nuage pour valider toutes les idées ou affirmations que l’on trouve un peu partout sur le net et provenant de toi ?
Franchement, le message de deux lignes de backlinker m’inspire 100x plus confiance que ton pavé pour une simple raison : il dit qu’il a testé, ce qu’il a testé, et ce qu’il en déduit. Alors qu’à te lire, on a franchement l’impression que tu nous renseigne sur tes a-priori. Pas sur Google. Et les a-priori, ben, ça change pas grand chose au chmilblick, non ?
Bref…
Merci à Backlinker pour son avis clair, concis et argumenté sur la chose :)
Oui, Marco, je passe beaucoup de temps à faire de la recherche et développement. En fait, au premier semestre, j’ai passé 30 % de temps à faire de la veille dans le domaine du référencement et les domaines connexes, et 30 % à faire de la recherche et développement.
En outre, mes affirmations se basent donc, en plus du bon sens, sur des expériences, qu’il s’agisse des miennes ou de celles de référenceurs tiers de renom. Malheureusement, les commentaires de blogs ne sont pas le bon endroit où publier ces références. En effet, je n’entends pas travailler au profit exclusif de mes confrères et concurrents en leur fournissant gratuitement du contenu en quantité documenté dans les moindres détails. Il y a d’autres lieux pour cela. Je le fais, cependant, dans mes audits, où la moindre de mes affirmations est dument documentée, bibliographie à l’appui, qu’il s’agisse de sources officielles de Google, Yahoo!, Bing, ou encore de référenceurs reconnus, que ce soit à l’international ou en France.
Je donne cependant parfois des références exhaustives gratuitement en d’autres lieux, mais pas dans les commentaires de blogs. La raison en est simple : l’expérience m’a montré que les commentaires de blogs comportant des liens internes étaient souvent rejetés ou étaient à tort considérés comme des commentaires indésirables. J’ai vite fini par abandonner cette voie.
Maintenant, les affirmations de mon précédent commentaire ne contredisent pas l’article ci-dessus de Backlinker. Elles ne font que le compléter par des déductions de bon sens, en plus de recoupements liés à d’autres observations, qu’elles soient personnelles ou non.
D’ailleurs, je t’invite à relire les conclusions de Backlinker : elles vont très largement au-delà de ses observations. Par exemple, ses résultats constatent que de nombreux sites sont hébergés chez OVH. Il en déduit que faire héberger un petit site sur du mutualisé OVH ne pose pas de problème, mais que cela peut en poser un pour un gros sites, d’un point de vue du référencement. Son test et ses résultats ne permettent pas d’arriver à cette conclusion. Peu importe si sa conclusion soit vraie ou non.
Ceci pour dire qu’il ne faut pas considérer qu’un test suivi d’une analyse et d’une conclusion est forcément à prendre au pied de la lettre, et qu’il réclame lui aussi une critique objective.
@Marco : Si la réflexion de Martin n’est certes pas agrémenté d’exemples précis, elle n’en reste pas moins intéressante. C’est souvent en faisant du reverse engineering qu’on avance : « comment aurais-je fait à la place de Google ? ».
@Martin : Pas de soucis si tu veux insérer des références, ce sera publié (et en plus c’est du dofollow).
Cet article est une vraie bouffée d’air que j’ai tweeté hier sur mon compte. T’es pas au top des blogs SEO pour rien. ;-)
Merci du compliment ! :-)
Merci pour cette étude, et à voir les réactions de nos amis SEO et BH SEO je pense qu’elle intéresse beaucoup de monde.
Pour ma part j’ai eu l’occasion de dénicher un site excellemment bien placé sur une requête concurrentielle SEO et un autre sur un site X avec le même WHOIS, serveur et ip….
Amicalement.
Bonne idée d’avoir analysé tout ça!
C’est intéressant. Je pense quand même que Google réagit plus rapidement et dé-crédibilise des liens s’il retrouve trop de liens entre différents domaines sur une même IP.
Ne serait-ce pas possible que les hébergeurs « précisent » quelque part aux robots que telle IP est dédiée ou mutualisée ?
Ils le savent. Google le sait en tout cas :)
Je pense qu’ils ont le genre de statistiques réalisées dans cet article en interne.
De biens beaux chiffres, je ne pensais pas qu’il pouvait exister autant de site sur une seule IP…
Pour ce qui est du débat sur les IP je n’ai pas assez poussé la réflexion donc je ne m’avancerai pas, certaines personnes ici sont largement plus compétentes de par leur volume de sites/IP/liens/business, pour s’avancer sur ce débat !
Je me permets une petit remarque sur le crawl, en prenant l’exemple de Google. Juste pour dire qu’il n’y a pas à ma connaissance de rate par ip, mais plutôt un rate par domaine. Après tout si on héberge bcp de domaines sur une même ip, faut assumer :)
Je pense aussi que Google est tout à fait capable de déterminer « à qui il s’attaque » et de configurer ses crawlers en fonction.
Par exemple, l’IP 213.186.33.19 reçoit entre 4 et 6 millions de requêtes par jour provenant de Google
Par contre, il me semble que si tu es sur mutualisé, tu ne peux pas demander à google de crawler ton site plus souvent, le rythme est fixé par google suivant différents critères. Sur ta propre IP, tu peux demander à être refresh plus souvent. (à confirmer)
Très intéressant d’avoir un retour d’OVH, merci !
Avez-vous une idée approximative du nombre d’URLs uniques crawlées ? Pour les « requêtes Google » il faudrait également exclure Google-Image.
Si on prend l’hypothèse (probablement foireuse) qu’un site possède en moyenne 1000 pages x 43 000 domaines ça fait 43 millions de pages.
Si Google veut toutes les crawler une fois par semaine on arrive à une moyenne de crawl quotidien de 6,1 millions, on est dans les clous.
6 millions de requêtes par jours ça fait 70 requêtes par secondes rien que pour Google, il faut tenir la charge ! Est-ce que vous avez des dispositifs particuliers avec Google ? Point de peering commun ou autre ?
J’ai pas de stats par URL, on regarde juste le taux global pour s’assurer que le référencement de nos clients dans Google se passe bien.
On a pas de dispositifs particuliers pour Google, les googleBots sont traités comme des visiteurs normaux. C’est l’infra des mutualisés en cluster qui permet d’encaisser ça sans difficulté.
Par contre, le taux de rafraichissement n’est évidemment pas le même pour tous les sites d’une même IP, donc on peut difficilement faire une moyenne par site pertinente.
Merci pour ces précisions, c’est très intéressant.
Y a-t-il de la documentation sur l’infrastructure des mutualisés en cluster ou c’est confidentiel ?
Il semble également qu’il y ait bien des points de peering entre OVH et Google ce qui permet évidemment de crawler plus rapidement : http://travaux.ovh.net/?do=details&id=4446
Ah oui je l’avais oublié celui là :)
C’est suite à un problème de quelques jours de transit de google vers chez nous qu’on avais mis ça en place. Ca garantie la stabilité du lien.
Y’a pas de doc officielle sur le cluster mutualisé, mais on peut trouver des infos dans l’ovh mag n°1, ici :
http://www.ovh.com/fr/ovh_mag/07_2010/index.xml
(page 71 et suivantes)
C’était l’article SEO de la semaine sur Twitter. Je pense qu’il fera référence à l’avenir. +1 pour les contributions d’OVH dans les commentaires, ça fait du bien d’avoir l’avis d’un hébergeur sur le sujet afin de faire tomber les mythes.
Ce qui est sur c’est qu’il est dangereux d’utiliser un logiciel de positionnement SEO avec la même IP que ses collègues sous peine de voir toute la boîte taper des capchas à chaque requête dans Google ;)
Le seul fait d’avoir réuni 1 353 676 mérite toute mon admiration. L’analyse est intéressante mais il est vrai qu’on a, au fond, aucune idée de l’impact réel des IPs sur le référencement. Depuis longtemps, on annonce aussi que le fait d’avoir un site sur un serveur français est un avantage mais, on voit bien que des sites hébergés à l’étranger ont de très bons positionnements.
Je doute de l’utilité de l’outil « Axandra ».Sinon comment apparait l’hébergeur 1&1 dans tes résultats ?
Je pense plus en effet que Google regarde les Whois (avec société, nom et prénom) plutôt que l’adresse IP.
Comme tu le montres bien avec ton exemple, il suffirait qu’un site du mutu OVH fasse n’importe quoi pour que tous les autres sites soient pénalisés.
A moins, dernière supposition, que Google considère qu’une IP est mutualisée à partir d’un certain nombre de domaines dessus (100 ou 1000 par exemple).
Marc.
Belle collecte de données…
L’impact SEO de l’IP semble tout de même assez faible, tout comme le Whois. Cela doit tout de même entrer dans les 400+ critères de l’algo Google.
En fait, une IP sur un mutu est une bonne solution pour rester « anonyme » ;)
J’avais loupé cet article, Merci bcp et excellente initiative !
Surement que ce critère d’IPs différentes ou d’IPs dupliquées est beaucoup plus pondéré en France, où le web est très petit par rapport à un pays comme les states.
Le fait est que si jamais, malgré nos suppositions, l’IP reste un critère valable, autant ne pas choisir OVH et d’opter pour un qui n’est pas dans la liste. D’accord avec Sylvain qui dit que tes backlinks proviendront probablement de la même IP, mais au moins qu’elles soient différentes de la sienne, c’est déjà ça.
Dans le SEO je trouve que le plus important c’est d’avoir des annuaires et des liens de qualité, ainsi que des contenus qui soit correct. Les adresses IP sont selon moi bien secondaires dans le SEO
a+
Je viens de tomber sur cet article, il n’est pas vraiment récent et surtout antérieur à Pingouin … peut etre que que celà a donc évolué … bon je me lance :
la conclusion et les commentaires ne répondent pas à mon problème … concernant le linking vous dites que le fait d’être sur un serveur dédié avec une IP donc différente des IP mutualisés cela est un avantage pour récupérer des liens externes … (mouais!)
mais qu’en est il du réseau de site .. si par exemple un site principal et une 10aine d’autre site complémentaire, est ce que ce « réseautage » est clairement identifié via les adresses IP ? existe il une solution pour obtenir plusieurs IP (cloud IP ?) sur le même serveur qui hébergerait plusieurs site dans le même domaine … voila voila
Ce que j’essayais de montrer avec cet article, c’est que Google ne peut pas se baser uniquement sur l’IP pour identifier un réseau. Ca peut-être un élément, mais qui doit forcément être corroboré par d’autres (templates, whois, adsense, analytics, …).
Pour avoir plusieurs IPs sur un même serveur, OVH propose un service d’IP failover.
J’arrive un peu tard ! mais cet article m’a beaucoup interpellé car c’est un test très intéressant mais qui a mon sens ne répond pas vraiment à la question si l’IP unique par site pour le référencement est primordiale. Les domaines testés peuvent être dans les SERPS mais sanctionné tout de même, NON ?
Une présence dans les moteurs ne veut pas dire que les domaines hébergés n’ont pas été sujet à des sanctions. Vrai ?
J’avais loupé cet article, Merci bcp et excellente initiative !
Surement que ce critère d’IPs différentes ou d’IPs dupliquées est beaucoup plus pondéré en France, où le web est très petit par rapport à un pays comme les states.
Je me suis toujours posé la question : est-ce que des IP proche est mauvais pour le référencement. Je n’ai pas de chiffres précis, mais d’expérience oui. J’ai remarqué que des serveurs chez le même hébergeur avec un des ip proches avaient visiblement moins de poids que pur des « ip éloignées ». Cependant j’aurai bien aimé une démonstration, un vrai retour d’expérience concluant.