Il existe des centaines (voire des milliers) de façons d’optimiser son site internet pour les moteurs de recherche. Plusieurs experts du Web prétendent être des professionnels en la matière (SEO) et font des promesses qu’ils ne peuvent tenir. La vérité est que les dirigeants derrière les moteurs de recherche ne dévoilent pas leurs algorithmes. Les algorithmes de classement des moteurs de recherche sont les secrets les mieux protégés de ces entreprises. Et, à ce qu’il paraît, ceux-ci changent constamment.
Les moteurs de recherche ont besoin d'une URL unique par élément de contenu pour pouvoir l'explorer, l'indexer et y rediriger les internautes. Pour être affichés correctement dans la recherche, les contenus de différente nature (par exemple, différents produits dans un magasin) ainsi que le contenu modifié (par exemple, des traductions ou des variantes régionales) doivent correspondre à des URL distinctes.
Le contenu est roi : veillez à ce que votre site contienne un texte bien rédigé et unique qui se concentre sur vos mots clés et expressions essentiels. Une mise à jour en continu du contenu permet également de préserver l’apparence toute neuve de l’empreinte numérique de votre site. Il s’agit là d’une exigence majeure pour une pertinence continue pour un moteur de recherche.
Contactez-nous pour une obtenir gratuitement un analyse de l’optimisation technique du site web de votre entreprise (ou audit SEO). Vous connaitrez ainsi les points forts et surtout les points techniques à améliorer de votre site web. Une façon intelligente de faire progresser sa position dans les principaux moteurs de recherche et ainsi de maximiser la visibilité de votre entreprise sur l’internet.

Note: Pour mieux comprendre l’information qui suit, visitez votre site internet et cliquez le bouton droit de votre souris. Choisissez l’option pour afficher le code source (View Source ou autre). Une nouvelle fenêtre devrait s’ouvrir et vous aurez accès au code source (HTML seulement) et au contenu de la page internet où vous vous trouvez. Ce que vous avez devant vous est l’information que les robots d’indexation utilisent. Pour ajouter vos mots-clés à votre code HTML, vous devez avoir accès au code source de vos pages internet.
Un lien qui indique « Cliquez ici » n'est pas aussi utile qu'un lien qui précise « Apprenez-en davantage sur le produit X ». Les liens de ce genre sont appelés liens « à longue traîne » et sont plus faciles à lire, tant par vos visiteurs que par le robot d'un moteur de recherche qui parcourt le contenu du Web et qui améliore le classement de votre site Web.
On connaissait déjà les SiteLinks, ces liens apparaissant parfois sous le 1er résultat dans les pages de Google (SERP), quand le site a une forte notoriété pour la requête. Google affiche désormais une nouvelle sorte de SiteLinks, que l’on pourrait appeler Mini-SiteLinks ou Sitelinks miniatures. Il s’agit d’une simple ligne de 4 liens texte, affichés sous un résultat – mais plus forcément le 1er, parfois un autre.
De nombreuses corrections et améliorations ont été apportées à cet algorithme, certaines étant décrites dans le brevet déposé le 17 avril 20074, d'autres ne restant connues que de Google. En particulier, il est important de garantir que des modifications trop locales du graphe du Web n'entraînent pas d'augmentation disproportionnée du PageRank de certaines pages, ceci afin d'éviter que des utilisateurs (par exemple des sites commerciaux) ne « boostent » artificiellement leur PageRank. Par exemple, dans l'algorithme de base décrit ci-dessus, ajouter de nombreux liens internes sur une page Web (ce qui est très simple à faire pour un particulier) permet d'augmenter son PageRank (cette stratégie ne marche pas avec le PageRank actuel de Google).
La recherche Web Google, née en 1998, est arrivée au moment idéal. En effet, à l’aube du 21e siècle, le nombre de sites eb a explosé : face à un tel flux d’informations, il devenait de plus difficile de trouver le contenu dont on avait besoin. Google a voulu trouver une solution à ce problème, en s’appuyant sur l’algorithme Page-Rank, développé par Larry Page et Sergey Brin.

D’un point de vue SEO, la fréquence à laquelle vous utilisez vos mots-clés dans vos pages Web est très importante pour votre classement. On dit qu’une densité en mots-clés entre 1 et 2% est idéale pour améliorer votre classement. Qu’est-ce que ça veut dire? Une densité de 2% veut dire que le même mot-clé apparait 2 fois par 100 mots au total. Donc, pour chaque 100 mots, vous pouvez optimiser votre page Web en ajoutant le même mot-clé jusqu’à 1.9 fois. Une densité plus grande que 1.9% pourrait être considérée comme du Web spam.


Ce classement peut induire en erreur le vrai classement des pages listés car dans une page comme Koora par exemple peut avoir parmi ces 9 000 000 de fans des Tunisiens résidents à l'étranger qui ne mentionnent pas leur Tunisienneté alors que dans une page comme Nesma TV 6 000 000 fans ou dans Orange Tunisie 23 000 000 fans il y a certainement d'autres nationalités que les Tunisiens
Quelques techniques white hat consistent à optimiser ses pages en utilisant des mots-clés pertinents et en faisant du « link-building », c'est-à-dire de créer un contenu de qualité sur différents blogs ou annuaires pour obtenir un « backlink ». En matière de White hat, le Guide d’optimisation pour le référencement édité par Google est une bonne source d'information10. Quelques techniques black hat consistaient à acheter des liens en masse ou à cacher du texte en le rendant de la même couleur que l'arrière-plan ou en lui donnant un attribut transparent. Néanmoins, Google ne prend maintenant plus en compte ces liens « cachés », et va jusqu'à les pénaliser s'ils n'ont pas été désavoués11.
×