mercredi, septembre 19, 2012

Discretion et Référencement

Un post très court pour encourager les spécialistes du référencement à être plus discret sur leurs stratégies.

Aucun professionnel du référencement ne me contredira si j'affirme que : Diffuser une stratégie de référencement ou créer un outil à bas prix exploitant une stratégie  peu exploitée mènera inéluctablement à sa perte. Tous les outils permettant d'exploiter une faille de l'algorithme Google finissent toujours par tuer la stratégie qu'ils exploitent. Qu'il s'agisse d'une stratégie de netlinking automatisable, ou une astuce technique : Quand la stratégie est massivement diffusée, partagée et  surexploitée par des référenceurs elle finit inéluctablement par être contrée par Google. En effet dés lors qu'une technique de manipulation des résultats est accéssible à de trop nombreux individus, les abus sont nombreux et la petinence du moteur est mis en péril.

Gardez vos stratégies pour vos gueules ! Restez discrets et exploitez vos stratégies avec des sites qui sont légitimes pour les requêtes ciblées, c'est bien plus rentable ! N'oubliez jamais qu'une stratégie que vous n'avez pas imaginée par vous-même finira par être contrée par Google et finira toujours par faire disparaître votre site du moteur à moyen ou court terme.

mardi, août 21, 2012

Google incapable d'attribuer la paternité d'un article sur son propre réseau de blog

Cela fait longtemps que je ne m'étais pas occupé de ce blog, en regardant les statistiques j'ai pu voir qu'il avait été pénalisé le 24 avril (date d'application du nouvel algorithme Penguin, pénalisant les sites utilisant des techniques d'acquisition de liens douteuses). Le nouveau filtre estime donc que Sweetbits obtient ses liens à l'aide de techniques d'acquisition de liens douteuses.

Concernant les techniques d'obtention de liens utilisées, le site Sweetbits a principalement utilisé des annuaires il y a environ 2-3 ans, depuis aucun lien n'a été crée, les seuls nouveaux liens ont été crées naturellement. N'ayant pas encore assez de recul je ne vais pas m'étendre sur le sujet et ce n'est pas l'objet de cet article.

En revanche ce que je trouve assez étonnant est le classement qu'obtiennent les sites qui ont délibérément copié les articles de Sweetbits. En effet, ces derniers ne prennent même pas la peine de citer leurs sources et se positionnent aisément grâce au contenu des articles de ce site.

La pertinence selon Google

Google estime donc que mes articles sont pertinents pour certaines requêtes mais propose de la visibilité qui devrait en principe revenir à l'auteur de l'article à des sites ayant copié le contenu de ce site ( le plus étonnant étant que blogger est une plateforme de blog appartenant à Google , ils sont donc les mieux placés pour déterminer qui à écrit le contenu).

Le méchant spammeur que je suis aux yeux de Google est donc pénalisé par Google et ce dernier offre une visibilité accrue aux voleurs de contenu : Pour les Blackhats SEO c'est sans doute une nouvelle opportunité à saisir :

- Il vous suffit de trouver des sites avec des contenus originaux qui ont été pénalisées par Google

- De copier le contenu en prenant soin de ne pas citer l'auteur

- De ne pas faire trop de liens, et laisser le contenu se positionner naturellement

Profitez-en dès maintenant : même le contenu original publié sur une plateforme de blog détenue par Google vous sera attribué sans problème !

Vous conviendrez que cela est quelque peu absurde de la part d'un moteur qui défend la pertinence de son algorithme, espérons que ce dommage collatéral de l'update (sans doute vécu par beaucoup d'autres webmasters) sera corrigé lors d'une prochaine update...

mardi, septembre 13, 2011

Le référencement naturel : Une stratégie risquée et limitée !

Il n'est pas rare de voir des sites dégringoler des classements des moteurs de recherches pour des raisons diverses et variées, les effets de ces déclassements peuvent parfois condamner des entreprises à la faillite ou réduire considérablement les bénéfices d'une entreprise en la forçant à revoir complètement son organisation . Nous allons tenter de voir comment il est possible d'éviter une catastrophe et dépasser les limites du référencement naturel en diversifiant ses sources d'acquisition de trafic en ligne.

Définir les pertes que pourraient engendrer un déclassement dans Google

La première chose à considérer est l'évaluation des pertes que pourraient engendrer un déclassement brutal de votre site internet sur Google. Si vous avez correctement paramétré votre suivi analytics, en définissant des objectifs et en leur attribuant une valeur, cela ne devrait pas être trop compliqué à définir. Une façon simple de mesurer l'impact de vos sources de trafic sur vos conversions est d'utiliser les nouveaux rapports sur les entonnoirs de conversion multicanaux. Ce rapport vous permettra de comprendre l'impact sur vos conversions directes et indirectes de votre trafic payant, votre trafic de recherche naturel, vos sites référant et votre trafic direct.

On voit par exemple que pour ce site proposant des services, la publicité payante représente 60.94% des conversions totales (dernier clic + assisté) et le référencement naturel 20,31% (dernier clic + assisté) , les conversions assistées soit par le référencement naturel ou le référencement payant représentent 7,03 % des conversions. Si l'on considère toutes les intersections, ce site pourrait donc potentiellement perdre entre 10 % et 22 % de ses conversions en subissant un déclassement total.


Ce rapport permet d'avoir un rapide aperçu de l'influence qu'a chaque source sur vos conversions, on peut aller plus loin en regardant par exemple le pourcentage du C.A que représente chaque source en utilisant d'autres rapports analytics.

Diversifier ses sources de conversion pour protéger son entreprise

Si votre stratégie ne repose pas uniquement sur le référencement naturel les pertes engendrées par une baisse de positionnement ne devraient pas être trop importantes , sinon vous devriez peut-être songer à élargir vos sources de trafic, ou revoir votre modèle économique : créer un 'business model' en considérant le référencement naturel comme seule source de trafic est non seulement une stratégie très risquée, puisque vous dépendez des changements faits sur l'algorithme et qu'aucun spécialiste en météorologie référencement ne peut prédire ce qu'il se passera dans un an, mais aussi très limitante au regard des possibilités offertes par toutes les autres stratégies de marketing sur internet. En effet couvrir l'intégralité du champ lexical lié à un domaine en anticipant toutes les requêtes pouvant amener des conversions est une mission quasiment impossible, et extrêmement couteuse en temps. Pensez vous réellement pouvoir travailler des dizaines de milliers de requêtes et vous positionner en première position sur toutes ces requêtes en respectant les règles imposées par Google ?

Quelles sont les autres sources de trafic possibles pour obtenir des conversions ?

Voici trois exemples de sources d'acquisition de trafic qui selon moi valent la peine d'être utilisées, ces 3 stratégies se sont avérées rentables pour la majorité de mes clients. Il faut bien évidemment avoir un site bien optimisé pour les conversions pour maximiser la rentabilité de ces stratégies..

Google Adwords et autres plateformes au CPC

Afin de couvrir l'intégralité des requêtes pouvant potentiellement apporter des conversions sur votre site, Google Adwords est l'outil idéal, une fois votre coup par acquisition maximal calculé et votre suivi des conversions correctement paramétré, vous pourrez créer des annonces répondant parfaitement aux requêtes des internautes et optimiser votre campagne afin qu'elle devienne rentable.

Un autre avantage des campagnes Adwords est la possibilité d'adapter vos pages d'atterrissages en fonction des requêtes des internautes, vous assurez ainsi une continuité entre la recherche de l'internaute, vos annonces et vos pages d'atterrissages, ce qui aura pour effet d'augmenter votre taux de conversion.

Si votre modèle économique vous permet de faire des marges plus élevées que vos concurrents, que vous avez une stratégie d'optimisation des conversions sur votre site, que vos campagnes sont bien structurées et que vous adoptez une méthodologie rigoureuse dans leur gestion et leur optimisation,  vous pourrez générer des revenus important en maitrisant vos coûts et dépasser considérablement tant en volume de trafic qu'en volume de conversion les possibilités que vous offrent le référencement naturel. Vous avez sans doute déjà remarqué que les 3 premières annonces Adwords étaient très souvent présentées avant les résultats naturels et que les annonces diffusées en haut de page ont un CTR très souvent bien plus élevé que les résultats naturels.


Les comparateurs de prix

Si vous êtes dans le E-commerce, une autre stratégie efficace d'acquisition de trafic qualifié est l'utilisation des comparateurs, en effet pour plusieurs de mes clients cette stratégie s'avère très rentable (même après la baisse de trafic que certains comparateurs ont subis suite à l'update Google Panda). Cela est particulièrement vrai si vos prix sont concurrentiels par rapport au marché. Un excellent outil que j'utilise et recommande est Lengow.com, un outil permettant de générer et gérer vos flux de produits. .


L'affiliation

L'affiliation vous permet de générer des conversions en prenant un minimum de risques, en effet vous ne rémunérez vos affiliés que si une conversion est enregistrée sur votre site. C'est une stratégie un peu plus longue à mettre en place que les deux précédentes mais en prenant soin de vos affiliés, en leur offrant des rémunérations attrayantes et en ayant des taux de conversions acceptables, vous ferez travailler les meilleurs webmarketeurs pour vous en les payant uniquement au résultat. Les exemples de succès dans ce domaine sont légions.

mardi, janvier 25, 2011

Méthode générale pour rewriter toutes les urls d'un site

1. identifier les différentes variables et valeurs pouvant être présentes dans les urls :

http://www.example.com?var=7&stri=kword


2. Réécrire ces urls de sorte qu'un être humain puisse les comprendre et qu'elles contiennent des mots-clés pour les moteurs, en veillant à n'utiliser que des caractères alphanumériques et des caractères de séparations valides comme le tiret -.

http://www.example.com/key-word-7.html

3. Faire correspondre les anciennes urls avec les nouvelles urls en utilisant le fichier .htaccess à la racine de votre site internet en ajoutant une ligne comme celle-ci :

RewriteEngineOn
RewriteRule ([a-z]*-?[a-z]*?)?-([0-9]+)\.html$ /index.php?var=$2&stri=$1 [L]

4. Trouver la fonction de votre script qui génère les urls du point 1 et la modifier ou l'overrider pour qu'elle génère le nouveau format. Si des urls sont stockées en dur dans des fichiers ou dans une base de donnée, exportez tous les fichiers modifier les urls avec un script (TextPad pourra vous être utile avec ses Posix) et réimporter les fichiers.

5.Vous pensez que c'est fini ? Pas du tout. Vous devez maintenant rediriger toutes les anciennes urls ou en tout cas toutes les anciennes urls ayant des liens externes (en regardant sur webmastertools et dans vos fichiers logs) vers votre nouveau format d'url en 301 si vous avez déjà écrit la fonction qui traduit l'ancien format vers le nouveau en PHP par exemple vous pouvez vous en servir en effectuant directement ces redirections dans vos fichiers PHP. Ce pseudo code est à placer au tout début du fichier PHP avant que quoi que ce soit d'autre ne soit envoyé.



<?php
//makenewurl devrait générer le nouveau format d'url à partir de l'ancien et ajouter le domaine racine
if(isoldurl()){
$newurl= makenewurl($_SERVER["request_uri"])
header('HTTP/1.1 301 Moved Permanently', false, 301);
header('Location: $newurl');
exit();
}
?>

Je n'ai pas testé ces bouts de codes, mais je voulais avoir vos avis sur le principe, bien sûre la majorité des scripts open source ou non incluent déjà l'url rewriting ou permettent au pire d' installer facilement un module qui gère cela, mais dans certains cas il faut mettre les mains dans le cambouis...

samedi, juin 05, 2010

Tracking des clics vers des sites externes avec Google analytics

Voici un rapide billet pour remédier à un petit problème rencontré récemment avec le tracking des clics sur des liens externes dans Google analytics. En effet dans l'aide Google Analytics les explications données ne sont malheureusement pas à jour (voir ici) et le code de remplacement proposé ici a lui aussi généré des erreurs.

Le code standard proposé actuellement est :


<script type="text/javascript">

var _gaq = _gaq [];
_gaq.push(['_setAccount', 'UA-XXXXXXXX-X']);
_gaq.push(['_trackPageview']);

(function() {
var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';
var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
})();

</script>


L'explication donnée par Google sur le tracking des liens externes ne fonctionnera donc pas et génèrera une erreur du type "_gat is not defined" ou "_gat est indéfini". En utilisant la deuxième solution proposée par Google on se retrouve avec une erreur : "urchinTracker is not defined"

Afin de continuer à tracker les clics sur les liens externes dans Google analytics il vous suffit d'ajouter ce code dans vos liens en adaptant les champs en vert.

<a onclick="_gaq.push(['_trackPageview', '/lienexterne/nomdusiteexterne']);" href=http://www.nomdusiteexterne.com >nomdusiteexterne</a>

Les clics vers les pages externes seront alors facilement récupérables et apparaitront comme des pages consultées.