SEO/SEM



Les paramétres et plugins SEO sur un site Joomla

Face au succès de WordPress, il est difficile de trouver les bons outils SEO pour Joomla : ce dernier serait-il délaissé?

Quelles possibilités SEO par défaut?

Vous connaissez sûrement les réglages généraux pour le référencement de vos pages web : dans la configuration générale de l’administration Joomla, vous pouvez choisir la réécriture des URLs ou non (objectifs mots-clés!), incluant ou non les titres des articles, la position du nom du site dans les titres etc. Ensuite on peut entrer la description du site et ses keywords, mais tout cela n’est pas suffisant… Voyons d’autres possibilités pour un référencement digne de ce nom. Lire la suite

Adwords : choisissez les mots-clés qui rapportent trafic et argent!

Certes, on peut tout à fait se mettre à la place d’un internaute qui cherche une information ou un produit qu’on met justement à disposition sur un site. Cependant, cela n’est pas objectif, et ne tient pas suffisamment compte de certains paramètres, en tout cas pas autant qu’un outil comme celui que propose Adwords.

Trouver les bons mots clés grâce à un outil réactualisé en permanence

Nous parlons du générateur de mots-clés mis à disposition des internautes dans Webmaster Tools. Il permet de savoir quels mots clés en rapport avec votre thématique sont beaucoup requis : vous obtenez des informations sur le nombre de fois où ils sont recherchés (dans le monde ou dans un pays selon les réglages que vous faites) ainsi que le coût par clic (CPC). Ensuite, vous est indiqué un ensemble de termes similaires : pourquoi? Tout simplement parce que les internautes ont une manière spécifique de faire une recherche : parfois ils ne mettent pas d’accents, parfois ils associent certains mots… Par exemple, si vous tapez « voiture », l’outil compare l’expression avec « auto » (et bien d’autres!) : vous pouvez ainsi vous rendre compte que certaines ont plus de succès que d’autres. Lire la suite

Webmaster Tools pour les nuls… enfin, pour les débutants!

Afin de voir son site apparaître dans les SERPs, il y a un outil à ne pas louper car il donne des indications cruciales sur l’état de votre site, la manière dont il est considéré par Google Search et les stratégies à adopter.

Evaluer votre optimisation SEO grâce à Webmaster Tools

Plusieurs fonctions permettent d’évaluer le type de recherches effectuées par les internautes qui les ont mené vers vos URLs, le nombre de pages indexées par rapport à celles indiquées dans la sitemap (carte de route de votre site), les liens internes et externes, les mots-clés… Ainsi vous pouvez savoir combien de liens pointent vers quelles pages précises et de quels sites ils proviennent. Vous pouvez ainsi constater qu’une page qui a très peu de liens voire pas dutout sera bien moins classée que d’autres dans les SERPs. A vous de lui en apporter, d’une manière ou une autre! Lire la suite

Le black hat c’est quoi?

Ce terme est inspiré de l’époque des westerns où les bons cow-boys portaient un chapeau blanc, à l’inverse des truands qui choisissaient le noir. Mais quel rapport avec le référencement?

Des référenceurs bien ou mal intentionnés…

Dans la conquête de la première place dans les SERPs, on distingue deux catégories de spécialistes en visibilité des sites : ceux qui respectent la morale et les recommandations de Google, et ceux qui jouent avec les failles de ce grand moteur de cherche. Ce sont aussi ces derniers qui peuvent être à l’origine de spam, de techniques pas très honnêtes dans le but de battre la concurrence. Pour cela, tous les moyens sont bons, au détriment parfois des webmasters qui jouent franc jeu. Lire la suite

Le PageRank : définition, critères d’analyse et impacts en 2012?

Beaucoup en parlent mais aussi beaucoup l’ont mis de côté : le PageRank est aujourd’hui une référence abandonnée par certains et pour d’autres, toujours assidûment suivie. Alors qu’en est-il vraiment?

Définition

Conçu par Larry Page pour le compte de Google, il est l’outil qui scrute en permanence des milliards de sites…

Les moteurs de recherche fonctionnent grâce à de nombreux algorithmes : il s’agit d’un ensemble de processus selon lesquels un robot analyse les pages web. Divers paramètres sont pris en compte pour ensuite procéder à un classement de 0 à 10, respectivement du plus faible au plus fort. Celui-ci joue ensuite sur la répartition des sites dans les SERPs (Search Engine Results Pages). On comprend donc pourquoi certains sites de mauvaises qualité parviennent en tête des résultats : ce ne sont pas des humains qui analysent les contenus mais des machines, bien que très évoluées. Lire la suite