Techniques de référencement
Blog et guide sur le référencement, le positionnement et l'optimisation de site pour découvrir des techniques et outils qui vous permettront d'atteindre vos objectifs en référencement.
mercredi, septembre 19, 2012
Discretion et Référencement
Aucun professionnel du référencement ne me contredira si j'affirme que : Diffuser une stratégie de référencement ou créer un outil à bas prix exploitant une stratégie peu exploitée mènera inéluctablement à sa perte. Tous les outils permettant d'exploiter une faille de l'algorithme Google finissent toujours par tuer la stratégie qu'ils exploitent. Qu'il s'agisse d'une stratégie de netlinking automatisable, ou une astuce technique : Quand la stratégie est massivement diffusée, partagée et surexploitée par des référenceurs elle finit inéluctablement par être contrée par Google. En effet dés lors qu'une technique de manipulation des résultats est accessible à de trop nombreux individus, les abus sont nombreux et la pertinence du moteur est mise en péril.
Restez discrets et exploitez vos stratégies avec des sites qui sont légitimes pour les requêtes ciblées, c'est bien plus rentable ! N'oubliez jamais qu'une stratégie que vous n'avez pas imaginé par vous-même finira par être contrée par Google et finira toujours par faire disparaître votre site du moteur à moyen ou court terme.
mardi, août 21, 2012
Google incapable d'attribuer la paternité d'un article sur son propre réseau de blog
Concernant les techniques d'obtention de liens utilisées, le site Sweetbits a principalement utilisé des annuaires il y a environ 2-3 ans, depuis aucun lien n'a été crée, les seuls nouveaux liens ont été crées naturellement. N'ayant pas encore assez de recul je ne vais pas m'étendre sur le sujet et ce n'est pas l'objet de cet article.
En revanche ce que je trouve assez étonnant est le classement qu'obtiennent les sites qui ont délibérément copié les articles de Sweetbits. En effet, ces derniers ne prennent même pas la peine de citer leurs sources et se positionnent aisément grâce au contenu des articles de ce site.
La pertinence selon Google
Google estime donc que mes articles sont pertinents pour certaines requêtes mais propose de la visibilité qui devrait en principe revenir à l'auteur de l'article à des sites ayant copié le contenu de ce site ( le plus étonnant étant que blogger est une plateforme de blog appartenant à Google , ils sont donc les mieux placés pour déterminer qui à écrit le contenu).
Le méchant spammeur que je suis aux yeux de Google est donc pénalisé par Google et ce dernier offre une visibilité accrue aux voleurs de contenu : Pour les Blackhats SEO c'est sans doute une nouvelle opportunité à saisir :
- Il vous suffit de trouver des sites avec des contenus originaux qui ont été pénalisées par Google
- De copier le contenu en prenant soin de ne pas citer l'auteur
- De ne pas faire trop de liens, et laisser le contenu se positionner naturellement
Profitez-en dès maintenant : même le contenu original publié sur une plateforme de blog détenue par Google vous sera attribué sans problème !
Vous conviendrez que cela est quelque peu absurde de la part d'un moteur qui défend la pertinence de son algorithme, espérons que ce dommage collatéral de l'update (sans doute vécu par beaucoup d'autres webmasters) sera corrigé lors d'une prochaine update...
mardi, septembre 13, 2011
Le référencement naturel : Une stratégie risquée et limitée !
Définir les pertes que pourraient engendrer un déclassement dans Google
La première chose à considérer est l'évaluation des pertes que pourraient engendrer un déclassement brutal de votre site internet sur Google. Si vous avez correctement paramétré votre suivi analytics, en définissant des objectifs et en leur attribuant une valeur, cela ne devrait pas être trop compliqué à définir. Une façon simple de mesurer l'impact de vos sources de trafic sur vos conversions est d'utiliser les nouveaux rapports sur les entonnoirs de conversion multicanaux. Ce rapport vous permettra de comprendre l'impact sur vos conversions directes et indirectes de votre trafic payant, votre trafic de recherche naturel, vos sites référant et votre trafic direct.
On voit par exemple que pour ce site proposant des services, la publicité payante représente 60.94% des conversions totales (dernier clic + assisté) et le référencement naturel 20,31% (dernier clic + assisté) , les conversions assistées soit par le référencement naturel ou le référencement payant représentent 7,03 % des conversions. Si l'on considère toutes les intersections, ce site pourrait donc potentiellement perdre entre 10 % et 22 % de ses conversions en subissant un déclassement total.
Ce rapport permet d'avoir un rapide aperçu de l'influence qu'a chaque source sur vos conversions, on peut aller plus loin en regardant par exemple le pourcentage du C.A que représente chaque source en utilisant d'autres rapports analytics.
Diversifier ses sources de conversion pour protéger son entreprise
Si votre stratégie ne repose pas uniquement sur le référencement naturel les pertes engendrées par une baisse de positionnement ne devraient pas être trop importantes , sinon vous devriez peut-être songer à élargir vos sources de trafic, ou revoir votre modèle économique : créer un 'business model' en considérant le référencement naturel comme seule source de trafic est non seulement une stratégie très risquée, puisque vous dépendez des changements faits sur l'algorithme et qu'aucun spécialiste en
Quelles sont les autres sources de trafic possibles pour obtenir des conversions ?
Les comparateurs de prix
L'affiliation
L'affiliation vous permet de générer des conversions en prenant un minimum de risques, en effet vous ne rémunérez vos affiliés que si une conversion est enregistrée sur votre site. C'est une stratégie un peu plus longue à mettre en place que les deux précédentes mais en prenant soin de vos affiliés, en leur offrant des rémunérations attrayantes et en ayant des taux de conversions acceptables, vous ferez travailler les meilleurs webmarketeurs pour vous en les payant uniquement au résultat. Les exemples de succès dans ce domaine sont légions.
mardi, janvier 25, 2011
Méthode générale pour rewriter toutes les urls d'un site
http://www.example.com?var=7&stri=kword
2. Réécrire ces urls de sorte qu'un être humain puisse les comprendre et qu'elles contiennent des mots-clés pour les moteurs, en veillant à n'utiliser que des caractères alphanumériques et des caractères de séparations valides comme le tiret -.
http://www.example.com/key-word-7.html
3. Faire correspondre les anciennes urls avec les nouvelles urls en utilisant le fichier .htaccess à la racine de votre site internet en ajoutant une ligne comme celle-ci :
RewriteEngineOn
RewriteRule ([a-z]*-?[a-z]*?)?-([0-9]+)\.html$ /index.php?var=$2&stri=$1 [L]
4. Trouver la fonction de votre script qui génère les urls du point 1 et la modifier ou l'overrider pour qu'elle génère le nouveau format. Si des urls sont stockées en dur dans des fichiers ou dans une base de donnée, exportez tous les fichiers modifier les urls avec un script (TextPad pourra vous être utile avec ses Posix) et réimporter les fichiers.
5.Vous pensez que c'est fini ? Pas du tout. Vous devez maintenant rediriger toutes les anciennes urls ou en tout cas toutes les anciennes urls ayant des liens externes (en regardant sur webmastertools et dans vos fichiers logs) vers votre nouveau format d'url en 301 si vous avez déjà écrit la fonction qui traduit l'ancien format vers le nouveau en PHP par exemple vous pouvez vous en servir en effectuant directement ces redirections dans vos fichiers PHP. Ce pseudo code est à placer au tout début du fichier PHP avant que quoi que ce soit d'autre ne soit envoyé.
<?php
//makenewurl devrait générer le nouveau format d'url à partir de l'ancien et ajouter le domaine racine
if(isoldurl()){
$newurl= makenewurl($_SERVER["request_uri"])
header('HTTP/1.1 301 Moved Permanently', false, 301);
header('Location: $newurl');
exit();
}
?>
Je n'ai pas testé ces bouts de codes, mais je voulais avoir vos avis sur le principe, bien sûre la majorité des scripts open source ou non incluent déjà l'url rewriting ou permettent au pire d' installer facilement un module qui gère cela, mais dans certains cas il faut mettre les mains dans le cambouis...
samedi, juin 05, 2010
Tracking des clics vers des sites externes avec Google analytics
Le code standard proposé actuellement est :
<script type="text/javascript">
var _gaq = _gaq [];
_gaq.push(['_setAccount', 'UA-XXXXXXXX-X']);
_gaq.push(['_trackPageview']);
(function() {
var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';
var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
})();
</script>
L'explication donnée par Google sur le tracking des liens externes ne fonctionnera donc pas et génèrera une erreur du type "_gat is not defined" ou "_gat est indéfini". En utilisant la deuxième solution proposée par Google on se retrouve avec une erreur : "urchinTracker is not defined"
Afin de continuer à tracker les clics sur les liens externes dans Google analytics il vous suffit d'ajouter ce code dans vos liens en adaptant les champs en vert.
<a onclick="_gaq.push(['_trackPageview', '/lienexterne/nomdusiteexterne']);" href=http://www.nomdusiteexterne.com >nomdusiteexterne</a>
Les clics vers les pages externes seront alors facilement récupérables et apparaitront comme des pages consultées.