Sans l’utilisation d’outils, le référencement d’un site web ne pourrait jamais être efficace. En effet, la masse d’informations est bien souvent trop importante pour pouvoir réaliser des vérifications manuelles ou pour faire des analyses détaillées.

Malheureusement, il en existe des centaines et il est bien difficile de s’y retrouver.  Voici une petite liste contenant les principaux outils que j’utilise régulièrement ou qui ont une très bonne réputation. Je l’ai volontairement structurée en fonction des principales tâches à effectuer dans le domaine du référencement.

Cette liste n’a pas pour vocation d’être exhaustive. Elle vous renvoie vers des infos détaillant un peu plus chaque produit. N’hésitez pas à la compléter ou à donner votre point de vue en utilisant les commentaires.

Analyses de mots-clés

Semrush est un éternel classique qui vous permettra d’avoir énormément d’informations sur les mots-clés utilisés par la concurrence. Vous aurez un ensemble de suggestion de mots-clés pour le référencement naturel et pour le référencement payant. L’outil est segmenté par pays. Malheureusement, Semrush ne propose pas d’informations pour les petits marchés comme par exemple la Belgique.

Un peu moins connu, Market Samuraï devient intéressant pour une gestion de mots-clés de type «longues traînes» ou pour trouver des marchés de niche. Il complète les indicateurs fournis par Adwords en intégrant des données fournies par d’autres outils comme MajesticSEO.  Ce produit propose également d’autres fonctionnalités comme, par exemple, le « SEO Competition » qui  peut analyser les dix premiers résultats dans Google pour un mot-clé en particulier. C’est très utile pour évaluer la difficulté d’un mot-clé.  Je vous invite à consulter ce site en français pour avoir une vue globale sur ses différentes possibilités.

Audit et vérification “on page” d’un site

Screaming Frog est un crawler orienté SEO. Il vous permet de détecter très facilement les faiblesses de votre site du point vue référencement. Balises « Title » trop longues, descriptions manquantes et bien d’autres critères seront analysés par cet outil. Il donne également la possibilité de vérifier les pages dupliquées ou d’exploiter des vérifications personnalisées. Couplé avec un tableur, il vous facilitera la vie. Vous pourrez notamment sortir de jolis graphiques présentant la profondeur de vos différentes pages ou la répartition des vos liens internes.  Il fonctionne aussi bien sur Windows que sur Mac. Cette page vous donnera un aperçu de ses possibilités.

N’oubliez pas d’utiliser également les Google Webmaster tools … petit rappel au cas où 😉 pour obtenir une multitude d’informations sur la santé de votre site (nombre de pages indexées, liens, erreur 404, …) et être informé en cas de pénalité manuelle. Merci Google !

Moz propose aussi des outils d’analyse on page mais pour un budget différent.

Recherche d’idées d’articles orientés SEO

Grande révélation 2012 durant le VLC, RDDZ est un scraper multifonction qui peut questionner n’importe quel type de moteur et en extraire une partie du contenu. La notion de moteur doit être prise au sens large : moteurs de recherche, annuaires, sites des pages jaunes, …  Pour la recherche d’idées d’articles, RDZZ devient intéressant car il peut scraper les Google Suggests et les recherches associées proposées dans les résultats de recherche de Google. Vous pouvez également créer votre scraper pour un moteur spécifique si vous avez de bonnes notions en HTML et Xpath.

D’autres scrapers existent mais celui-ci est devenu un incontournable. Bien entendu, ne vous limitez pas à ce type de produit pour mettre en place une bonne stratégie de contenu mais cela reste une bonne aide pour articles orientés SEO.

Suivi et analyse du netlinking

MajesticSEO, Open Site Explorer et Ahrefs sont les outils les plus utilisés pour réaliser une analyse du netlinking d’un site. Ils sont assez proches mais j’ai personnellement une préférence pour MajesticSEO. Il vous donnera une cartographie très détaillée de vos liens : domaines, ancres, répartitions sur l’ensemble des pages du site, TLD des référents,  …

Ces outils pourront vous aider tant pour l’analyse concurrentielle que pour vérifier si l’un de vos clients n’a pas trop optimisé ses liens externes.

Gestion de son réseau de sites

MainWp un nouveau produit publié par SickMarketing permettant de gérer votre réseau de sites WordPress. Il donne la possibilité de contrôler l’ensemble d’un réseau de sites via une série de dashboards sur une seule installation WP. Il permet, par exemple, de gérer l’ensemble des utilisateurs, de publier un article sur un des sites ou encore de réaliser des backups. L’outil est encore jeune mais ses fonctionnalités augmentent de jour en jour. Un des gros avantages par rapport à la concurrence est son prix très attractif.

Si vous voulez récupérer des domaines expirés pour agrandir votre réseau, RDDZ Scraper peut encore vous aider. Toutes les infos sont sur le forum premium de RDZZ.

Trouver des blogs influents ou des sites d’autorité

C’est de nouveau RDDZ qui sera votre meilleur allié ! Non, je n’ai pas d’action dans ce produit mais il est vraiment très pratique car il est facilement configurable pour utiliser tous les paramètres de Google. Libre à vous d’affiner vos recherches sur un pays ou un type de site (ex. actualité ou blog). Dans ce cas, vous obtiendrez une liste  de sites plus pertinente et il ne vous restera plus qu’à faire copain/copain avec les propriétaires de ces sites.

Un special désintox

Vous avez été pénalisé par Google Penguin et vous voulez connaître vos mauvais liens ? Ou alors vous voulez tout simplement évaluer la qualité de votre netlinking ?

Link detox peut vous aider en évaluant la probabilité de recevoir une pénalité en fonction de votre netlinking. Pour chaque lien détecté comme risqué, il vous donnera les raisons : domaine non indexé, page rank faible, réseau de sites détecté,  autorité de la page, …

Gardez ce produit comme une aide permettant de découvrir plus rapidement vos mauvais liens mais ne le laissez pas prendre la décision finale à votre place. Ce serait quand même dommage de faire trop de désaveux de liens !

Automatiser ses tâches

iMacro et ubot studio sont deux outils qui vous donneront la possibilité d’automatiser des tâches répétitives. Les usages sont multiples car tout ce que vous faites dans un navigateur peut être automatisé avec ces produits : remplir des formulaires, scraper des informations, … . Vous avez quelques exemples de scripts d’ubot ici.

Bien entendu, ils ne vont jamais remplacer des langages comme PHP ou java qui possèdent de bonnes libraires orientées web et qui vous donneront plus de flexibilité pour créer vos propres outils.

Excel ou Google Spreadsheet pour traiter vos données en masse

Un grand nombre d’outils mentionnés dans cet article donne la possibilité d’exporter vos données ou d’y accéder via une API REST. Excel ou Google Spreedsheet deviennent intéressants pour construire vos propres dashboards combinant les données de différents outils SEO. J’aime particulièrement la puissance des scripts dans Google Docs mais les lenteurs et les limitations en terme de données sont un facteur bloquant. Si vous utilisez Excel, essayez également SeoTools for Excel qui  ajoutera quelques fonctions orientées SEO dans votre tableur.

Vous en voulez encore plus ?

Il manque dans cet article d’autres types de produits comme par exemple le suivi des positions et bien d’autres.  @Mar1e et @Miss_Seo_girl ont fait un inventaire assez complet lors du dernier SEO Camp. La présentation qui se trouve ici vous donnera beaucoup plus de détails.