2015
fév
8





Test de SEOLOG, l’analyseur de log by SERP Hacker

Category SEO

Après avoir développé l'outil de suivi de position SERPOSCOPE, Pierre alias SERP Hacker s'est lancé dans un outil qui manque cruellement à la profession SEO : l'analyseur de log.

Je ne vais pas essayer de vous convaincre pourquoi c'est chouette d'analyser des logs pour le SEO, moi je suis convaincu de l'intérêt depuis des années !

seo-log-serphacker

J'ai testé cet outil sur ItalPassion, un site que j'édite depuis maintenant 2011, développé avec WordPress.

C'est parti pour un rapide test de l'outil SEOLOG, en 4 étapes !

Étape 1 : je créé mes tags (facultatif)

Avant d'uploader les premiers logs, il est conseillé de créer des tags. L'intérêt est de segmenter l'analyse par sémantique.

Dans mon cas, j'ai segmenté avec les marques mais il est possible d'aller encore plus loin. Cette segmentation se fait grâce à des expressions régulières qui sont détaillées dans la documentation.

log tag

Étape 2 : je soumets mes logs

Pour analyser des logs il faut... des logs ! Il existe deux moyens d'envoyer vos logs vers l'outil. Soit en ssh pour ceux qui ont des dédiés / VPS ou bien depuis un uploader de fichier pour ceux qui ont des mutualisés. Lorsque votre log est envoyé, une analyse est aussitôt faite pour vérifier si le fichier est ok.

log uploader

L'interface est plutôt intuitive et il faut prendre le temps de lire la documentation. J'ai pu essayer les deux méthodes, ssh et uploader, et ça fonctionne parfaitement.

Notez qu'à chaque fois que vous soumettez un log, SEOLOG télécharge votre sitemap. Ceci s'avère très utile pour la suite des analyses.

Étape 3 : je regarde les KPIs

C'est certainement la partie que vous attendiez le plus : qu'est-il possible de voir avec l'outil SEOLOG ?

log kpi

D'abord, sur la partie gauche de l'écran une liste de KPIs (Key Performance Indicators).

  • Crawled urls : le nombre d'urls crawlées par Google sur les 30 derniers jours ;
  • Crawl coverage : le ratio d'urls crawlées par Google par rapport à celles présentes dans le sitemap ;
  • Crawl speed : la moyenne d'urls crawlées par jour par Google sur les 30 derniers jours ;
  • New crawl speed : la moyenne de nouvelles urls crawlées par Google sur les 30 derniers jours ;
  • Error rate : le ratio d'erreurs (404, 500, etc.) par rapport au total d'urls crawlées par Google ;
  • Crawl without traffic : le pourcentage d'urls crawlées par Google mais n'ayant jamais reçues de visites sur les 30 derniers jours ;

Sur la partie droite, la répartition d'urls uniques et d'urls crawlées par rapport à mes tags définis à la première étape.

log coverage

Le graphique ci-dessus détaille l'évolution des urls crawlées par Google par rapport à celles présentes dans votre sitemap et donc, normalement, l'exhaustivité des urls que vous souhaitez référencer dans les moteurs de recherche.

log new crawl

Le graphique ci-dessus présente le crawl journalier par Google Bot en précisant les urls déjà crawlées ou nouvellement crawlées.

Étape 4 : j'analyse en détail des logs

Trois onglets permettent d'analyser un peu plus en détail les logs du site : log explorer, uncrawled et timeline.

log explorer

log explorer

Le premier, log explorer, met à disposition de nombreux filtres afin de lister par exemple, toutes les pages 404, les pages d'un tag spécifique ou encore les pages ayant été crawlées mais n'ayant jamais eu de visites sur les 30 derniers jours.

uncrawled

uncrawled

Le second, uncrawled, liste les urls présentent dans votre sitemap mais n'ayant jamais été crawlées sur les 30 derniers jours.

timeline

timeline

Enfin le troisième, timeline, liste les urls crawlées par date. Il est, une fois de plus, possible de filtrer les urls par tag.

Conclusion

S'il n'est pas toujours utile d'analyser vos logs (c'est au cas par cas), le faire hebdomadairement est, il me semble une bonne chose. Surtout si vous avez des objectifs pour des pages d’atterrissage. Par exemple, suite à des actions SEO, vous devriez constater les résultats (ou non) d'un meilleur taux de crawl sur vos pages cibles. Ou encore, si vous faites un audit SEO poussé, il est possible de déceler par les logs de nombreuses erreurs.

Autre fonctionnalité sympa, il est possible de comparer le crawl de Google à celui de Bing. Dans le cas d'ItalPassion, Bing crawl 100 % de mon sitemap contre 95 % pour Google. Le rythme est de 525 urls / jour pour Bing contre 404 urls / jour pour Google.

Enfin, cet outil est multi-site et multi-utilisateur. Son développeur travaille sur de nombreuses améliorations visibles sur un changelog.

Pour tester SEOLOG de SERP Hacker, vous pouvez faire une demande d'inscription ici.

Enfin, je tiens à rappeler qu'il existe d'autres analyseurs de log comme Botify ou la Watussi Box.

Bonus : SEOLOG vs tracker javascript vs GWT

Je me suis "amusé" à mettre à l'échelle et à comparer sur le mois de janvier 2015 les statistiques de crawl de Google Bot sur 3 outils : SEOLOG, un tracker javascript pour Google Analytics et les statistiques d'exploration de Google Webmaster Tools.

SEO LOG vs javascript vs GWT

SEOLOG vs tracker javascript vs GWT

Le tout est plutôt cohérent, même si Google Webmaster Tools semble le plus optimiste et à l'inverse le tracker javascript le moins précis au regard de l'échelle.

2 Comments to “Test de SEOLOG, l’analyseur de log by SERP Hacker”

  • Magicyoyo 11 février 2015 à 18 h 28 min

    J’étais passé à coté de cette annonce.
    Ca a l’air super propre. C’est Pierre qui fait ça tout seul ???

  • Aurelien 3 juillet 2015 à 9 h 32 min

    Cela semble magnifique.

    Un grand bravo à lui pour cet outil.

Poster un commentaire

Mes tweets

Mes sites

Sites amis