Non classé
Browsing all articles in Non classé
20

Bonjour à tous,

J’ai un peu honte de m’apercevoir que je n’ai pas posté sur ce blog depuis tout juste un an… Je crois que ce post va être le plus long depuis le début.

« L’affaire Laurent vs Hasni » m’invite à reprendre la plume.

Si je reprends la plume, ce n’est pas pour donner mon avis sur cette « affaire ». Ne connaissant pas le fonctionnement du SEOcamp de l’intérieur, je n’ai pas tous les éléments pour me forger ma propre opinion.

J’ai de l’amitié tant pour Laurent que pour Hasni qui ont tous deux de grandes qualités.

Laurent est toujours disponible quand il s’agit de d’apporter de l’aide, de donner un coup de pouce, de faire profiter de son réseau ou de sa notoriété. Il le fait de manière totalement désintéressée, souvent de manière discrète, toujours avec plaisir. Il est sans aucun doute le recordman absolu du nombre de conférences SEOcamp effectuées. Je rappelle pour ceux qui ne le savent pas encore ou qui l’ont oublié que les conférenciers sont 100% bénévoles.

Je connais moins Hasni mais je l’ai vu se démener toute l’année pour l’association jamais il n’y a eu autant d’évènements SEO que cette année. J’ai eu l’occasion de le côtoyer quelques jours lors du TuniSEO et j’ai été très touché par sa volonté de faire plaisir à tout le monde, là aussi en toute discrétion.

Ils ont tous deux leurs qualités et leurs défauts, Laurent est peut-être trop « grande gueule », Hasni ne sait certainement pas déléguer comme il le faut et c’est sans doute un vrai problème lorsqu’on est président d’une association comme celle-ci. Personne n’est parfait, loin de là.

Quand je pense à Laurent et Hasni, je ne peux pas m’empêcher de penser à cette mémorable séance de hammam à Tunis… (coucou Kévin 😉 ).

Ce « clash » m’a beaucoup attristé mais ce qui m’a encore plus attristé c’est le torrent de critiques contre l’association et l’inquiétude témoignée par certains quand à son avenir.

Du coup je voulais témoigner de ce que l’association SEO Camp a représenté pour moi. Je suis peut-être une exception mais je me considère un peu comme un « bébé SEOcamp ». Je ne vais pas dire que l’association a changé ma vie mais on n’en est pas très loin. En tout cas, elle a eu un sacré impact.

Ce qui est sympa avec Gmail et Google Calendar c’est qu’on peut remonter des années en arrière et retrouver des souvenirs oubliés.

L’association s’est créée en 2008, à l’époque il fallait être coopté par deux membres pour rejoindre l’association.

Jeune étudiant passionné par le SEO, je n’avais pas le moindre réseau et ne connaissais aucun membre du SEO Camp, j’avais alors jeté une bouteille à la mer qui avait trouvé un destinataire.

 

a

 

A vrai dire je viens tout juste de percuter que j’avais été parrainé par Philippe et Tai Phan. Comme je ne les connaissaient pas à l’époque, je n’avais pas enregistré les noms. J’en profite pour les remercier chaleureusement… 7 ans plus tard !

En octobre 2008 je participais à mon premier « barcamp SEOcamp » (sûrement un des tous premiers qui a eu lieu). De mémoire il y avait eu une présentation de Philippe Yonnet sur les fuites de PageRank et de Nicolas Guillard sur le Web Analytics. Je ne connaissais absolument personne mais j’étais abasourdi par ce que j’apprenais. A l’époque je bricolais en SEO dans ma chambre de bonnes parisienne de 9m2 et je réalisais que j’avais encore énormément à apprendre. Je me souviens également de la montagne de pizzas qui était présente. Je crois que ce soir là, j’ai plus mangé que lors de tous mes SEOcampus cumulés depuis (critique purement gratuite ^^). 7 ans plus tard ça reste un super souvenir.

J’ai l’impression que ça n’existe plus mais au début, le SEO camp organisait des speed recruting. En octobre 2009, j’étais en train de mettre un terme à ma première aventure entrepreneuriale, je m’étais alors inscrit pour chercher un job dans le SEO.

b

 

Lors de speed recruting, j’allais rencontrer mon futur (et premier) employeur, la start-up Dolead. Grace au SEO camp, je décrochais mon premier job à cheval entre développement et SEO !

Ma recherche archéologique dans Gmail m’a fait réaliser que lors de ce speed recruting, j’avais passé un entretien (de 5 minutes, c’était rapide) avec Sébastien Monnier qui recrutait pour feu 1ère position (je viens de retrouver un mail ou je lui envoie mon CV ^^), détail que j’avais là aussi complètement oublié (alzheimer à mon âge, c’est moche…).

Le clin d’oeil de l’histoire c’est que Sébastien est aujourd’hui candidat pour devenir président de l’association.

Entre temps j’ai continué à participer régulièrement aux apéros SEO. J’étais toujours un parfait inconnu mais j’ai eu l’occasion de croiser beaucoup de « stars du SEO » et je peux témoigner que l’image qu’ils peuvent avoir derrière un écran ou sur une scène de conférence est très différente de celle qu’ils ont derrière une bière, ils sont tous facilement accessibles, partagent avec plaisir et ne se prennent absolument pas la tête. Je me souviens notamment que c’est dans un de ces apéros que j’ai rencontré pour la première fois le professeur Sylvain Peyronnet. A 2 ou 3 ans près, Sylvain aurait pu être un de mes enseignants à l’IUT informatique d’Orsay. Aujourd’hui Sylvain travaille avec nous sur certains projets chez PagesJaunes et il m’a proposé d’intervenir lors de sa conférence Queduweb en juin prochain (inscrivez vous !) :-)

C’est à peu prêt à cette époque que j’ai lancé le blog que vous êtes en train de lire. L’objectif était de continuer à apprendre et commencer à partager.

Au bout d’un an j’ai démissionné de ce qui était mon premier job salarié, je faisais trop de développement et pas assez de SEO à mon goût :-) Je me suis alors saigné pour participer à mon premier SEOcampus (l’édition 2011), ça représentait une sacré somme pour moi à l’époque.

J’avoue ne pas avoir un souvenir impérissable des conférences qui y avaient eu lieu mais lors de cette édition, je rencontrais Cindy de l’agence de recrutement Hureca. Le SEOcampus avait lieu les 1 et 2 mars. Le 10 mars j’avais un entretien avec l’agence Hureca. Le 18 mars j’avais un entretien d’embauche chez Aposition. Et le 1er avril je débutais ma « carrière » de consultant SEO chez Aposition.

La magie du SEOcamp avait encore frappé.

Les mois ont passés, j’ai continué à beaucoup apprendre, à un peu partager. J’ai développé des petits outils que j’ai mis à disposition de la communauté.

En janvier 2013 Laurent Bourrelly me proposait de participer à son célèbre podcast, je crois que j’avais du relire son mail 3 ou 4 fois pour être bien certain de ce que je lisais. On ne se connaissait absolument pas mais ce que je faisais lui plaisait.

jean-benoit-moingt

Ce passage dans le podcast de Laurent m’a créé une vraie visibilité, je crois que je n’ai jamais eu autant de nouveaux followers sur Twitter que ce jour là :-) A partir de ce moment là, je n’étais plus un parfait inconnu. Le vrai avantage que j’y vois c’est que les gens viennent beaucoup plus naturellement vers moi lors des différents évènements. Moi qui suis plutôt d’un naturel réservé ça m’arrange bien, ça me permet de faire encore plus de rencontres à chaque fois :-) Merci Laurent !

Enfin, le 15 mars 2013, j’intervenais pour la première en tant que conférencier lors du SEOcampus. J’avais sacrément le trac et je me rappelle que Laurent se moquait de moi en m’expliquant c’était normal pour un « dépucelage ». Depuis j’ai fait un certain nombre d’interventions, j’ai un petit peu plus l’habitude mais j’ai toujours le trac :-)

formation

Le 23 mars 2008 j’envoyais un e-mail à l’association pour demander si je pouvais passer outre la cooptation, je ne connaissais personne.

Le 15 mars 2013 j’étais intervenant lors de la grande messe annuelle du SEO.

Une « aventure » de presque 5 ans jour pour jour.

5 ans d’apprentissage, 5 ans de rencontres, 5 ans de partage, 2 boulots décrochés grâce à l’association :-)

5 ans durant lesquels j’ai grandi, personnellement et professionnellement et ce n’est pas fini.

Pour moi l’association SEOcamp c’est ça et il faut que ça le reste !

Bonne journée à tous !

5

Même si le terme « webperf » est très à la mode depuis quelques temps, force est de constater que les temps d’exécution des sites n’ont jamais été aussi catastrophique qu’aujourd’hui.

Les gourmands CMS prêts à l’emploi de type WordPress, Magento ou autres ont là une grande part de responsabilité.

Ils ont démocratisé des temps d’exécution délirants, supérieurs à la seconde et parfois bien au delà.

Une hérésie au vu de la puissance des machines. Quand on pense que l’ordinateur d’Apollo 11 possédait un CPU de 1Mhz et 4Ko de RAM :-)

Par temps d’exécution, nous entendons le temps de génération du HTML par le serveur, sans chargement des images, js ou autres fichiers statiques.

Turpentine, PageCache, WP Super Cache, WP Rocket, W3 Total Cache, (ou même Varnish) … les plugins de mise en cache sont devenu indispensables et agissent en cache misère.

Le problème (au delà du fait que c’est totalement anormal d’avoir un site qui se charge en plus de 1 seconde), c’est qu’avec la plupart de ces systèmes, c’est le visiteur qui génère la mise en cache.

Pour les pages les plus visitées, pas de soucis, elles sont la plupart du temps en cache.

Par contre, Googlebot visite tout type de pages, pas uniquement les plus visitées par les internautes.

Du coup, dans la plupart des cas, c’est Googlebot qui génère la mise en cache.

Ainsi, notre robot d’indexation préféré se prend que des temps de chargement horribles.

Les logs peuvent nous aider à mesurer ce ratio.

Pour cela, on va envoyer une entête HTTP dans la réponse :

header(‘EnCache: Cache OK’); // Si la page est en cache
header(‘EnCache: Cache KO’); // Si la page n’est pas en cache

On va modifier la configuration de nos logs sur Apache en ajoutant la colonne suivante :

« %{EnCache}o

On redémarre le serveur, et c’est bon !

A partir de maintenant, sur chaque ligne de logs, vous pouvez voir si la page a été générée grâce au cache ou pas.

Ensuite, un petit : zgrep Googlebot *.gz | cut -fx | sort | uniq -c

Vous permettra de voir le ration entre en cache / pas en cache pour Googlebot.

Sur les sites que j’ai étudié, on s’aperçoit souvent que Googlebot génère lui même le cache dans plus de 80% des cas.

Quelques solutions :

– Améliorer les performances :-)
– Augmenter la durée du cache
– Crawler vous même le site pour générer le cache de toutes les pages

0

Lancement des formations Watussi

formation

 

Depuis quelques temps, je reçois régulièrement des demandes de formation.

Ce fût le cas suite à la mise à disposition gratuite de mon analyseur de logs « light » : WatussiBox Free (plus de 1000 téléchargements ! Merci :-) )

De même suite à ma présentation lors du dernier SEO Campus

Le format de la conférence (20 minutes) ne laissant en effet guère la possibilité de rentrer dans le détail.

J’ai donc préparé une formation que j’ai présentée depuis quelques mois à plusieurs « beta-testeurs ».

Vous vous en doutez si vous me connaissez, cette formation aborde les sujets techniques et structurels du SEO : crawl, structure, analyse de logs, … Elle est bien évidemment réservée aux référenceurs avancés (responsables SEO, consultants etc.)

Etant désormais satisfait du résultat, et ayant eu de très bons retours de mes « beta-testeurs », je vais proposer régulièrement des sessions de formation.

La première aura lieu à Paris le 29 novembre prochain. Je limite le nombre de participants à 15 afin de faciliter les échanges pendant toute la journée de formation.

D’autres sessions seront organisées dans plusieurs villes en fonction des demandes.

Watussi étant un organisme de formation déclaré, cette formation est éligible au DIF.

Toutes les informations pratiques, ainsi que le plan de formation sont disponibles sur le site dédié : http://www.formation-seo.fr

Si vous avez d’autres questions, n’hésitez pas à les poser en commentaire.

Edit 18 septembre 2013 : Jérôme, l’un de mes premiers « beta-testeur » me fait l’honneur de publier un avis sur la formation : http://www.jeromeweb.net/tests-avis/19398-formation-watussi

 

2

Google Knowledge Graph et personnalisation

On le sait, Google est une entreprise de data.

Elle mesure, track, observe, analyse tout ce qu’elle peut.

L’une des applications est de proposer des résultats toujours plus personnalisés et pertinents pour un utilisateur donné (et de la publicité ciblée, bien évidemment…).

Nouvelle démonstration avec le knowledge graph.

Sur la requête « watussi »

En mode « non logué », Google met en avant le bovin africain. Wikipédia est premier, mon blog est deuxième.

watussi_non_logué

Si je refais la recherche en mode logué : mon blog est premier, Wikipédia est deuxième. Et surtout, le bloc Knowledge Graph est beaucoup plus discret.

watussi_logué

Prochaine étape : faire sauter complètement le bloc ^^.

11

Lorsque l’on analyse des logs serveur, il est fréquent de devoir dé-dupliquer de très gros fichiers.

A titre d’exemple, j’ai eu besoin récemment de dé-dupliquer un fichier de 51 millions de lignes (1,4 Go).

Avec Excel, cela semble compromis… (je n’ai pas essayé cela dit ^^).

Sur une console Linux, c’est très facile, on trie puis on déduplique

sort fichier.txt | uniq > fichier.dedup.txt

Cela fait le job, mais c’est un peu lent (12 minutes et 21 secondes sur ma machine).

Le principal défaut de cette commande, c’est qu’il y a un unique processus et donc l’utilisation d’un seul coeur du processeur. Un peu dommage puisque que j’en ai deux sur ma machine.

Heureusement, Linux est un modèle de modularité.

En quelques lignes de script shell, on peut parralléliser le traitement et faire une sorte de MapReduce (très à la mode en ce moment).

split -l 1000000 urls.txt urls.split.
 
for file in ls urls.split.*
do
	sort $file > $file.sorted &
done
wait
 
sort -m *.sorted | uniq > urls.sorted.txt.2

Le principe est simple, on découpe notre gros fichier en plusieurs fichiers. Chaque fichier va être trié en parallèle via des processus distincts. Une fois trié, on merge et on dé-duplique.

On augmente le nombre d’écritures sur le disque, mais on obtient une utilisation optimale du processeur.

Votre machine va chauffer un petit peu car le processeur va être utilisé à prêt de 100%, mais le traitement va être bien plus rapide (7 minutes 49 secondes sur ma machine, soit un gain de 37%).

Si ma machine disposait de 4 ou 8 coeurs, ce qui est de plus en plus courant, le gain aurait été bien plus important.

Si vous avez encore plus efficace, je suis preneur.

Merci Linux !

Articles récents

Catégories

Archives

Liens