Création de sites web
Accueil
 
 
Création de site internet
 
 
Création de bannières publicitaires
 
 
Conception de visite virtuelle
 
 
Devis site web sur mesure
 
 
Contactez-nous
 
 
 

       Glossaire

       Livre blanc Google

       RSS Droit Internet

       RSS F.A.I.

       RSS Google

       RSS hébergement

       RSS site perso

       RSS webmaster

 
 
 

       Référencement

LIVRE BLANC GOOGLE

Téléchargeable sur le site 1ere-position.fr


Le référencement naturel : évolution, intérêts et perspectives
Version 1.1 - 15 décembre 2005
Adresse de téléchargement : http://www.1ere-position.fr
Conception-rédaction : François Simoneschi
Sous la direction de : David Degrelle
Réalisé grâce à la participation de toute l'équipe de 1ère Position : Lydia Arzour, Christophe
Bonnet, David Charbonnier, Lionel Cherpin, Teodor Dachev, Pierre Foucher, William Gourbin,
Odelia Grougnet, Sylvie Lapierre, Gilles Macabies, Juan Naveira, Michèle Ramponi, Valérie
Suptil, Laurence Tezier, Laurence Thomas, Anne-Marie Torres.

2

Sommaire
1ère partie : La nécessité d'un code déontologique pour le référencement
1. Une histoire des moteurs de recherche
a. La nécessité des outils de recherche
b. Google™ : le moteur préféré des internautes en France
c. La raison du succès de Google™
d. Des concurrents suiveurs
2. Le référencement : un métier détourné de sa vocation originelle
a. Naissance d'un nouveau métier à la rencontre du marketing et de la technique
b. Des solutions temporaires transformées en dérives
c. Comment Google™ cherche à préserver sa notion de pertinence
3. L'internaute : le coeur de métier oublié du référencement
a. La prise de pouvoir de l'internaute et le respect de la Netiquette
b. Netiquette, charte éditoriale de Google™ et LCEN : même combat
4. Définition d'un code de déontologie pour le référencement

2ème partie : Le référencement naturel, dans l'intérêt conjugué des internautes
et des moteurs de recherche
1. Pourquoi intégrer le référencement naturel en amont d'un projet de site Internet
a. Créer du trafic ciblé
b. Accessibilité et référencement naturel : mêmes valeurs
c. Usabilité : comprendre les attentes des internautes en matière d'usage
d. Définition du référencement naturel
2. Le référencement naturel, une solution durable et performante
a. Gains / Intérêts
b. Inconvénients
3ème partie : Aller au-delà du référencement éthique et naturel, ou comment
rendre un business modèle attractif pour l'internaute
1. Une démarche de WebMarketing innovante : le permission marketing
2. Etre en adéquation avec les nouveaux usages communautaires (Blogs, Wikis, etc.)

3
1ère partie : La nécessité d'un code déontologique pour le référencement
1. Une histoire de s moteurs de recherche
a. La nécessité des outils de recherche
69, année… électronique. C'est la naissance d'Internet. Les ordinateurs ne sont plus
considérés comme des îles, isolées les unes des autres. Ils peuvent communiquer entre eux,
partager leur capacité de calcul, ce qui est alors impératif pour des machines extrêmement chères
et volumineuses.
Initialement baptisé ARPAnet1, Internet n'est qu'un projet de recherche avancée du
gouvernement américain parmi tant d'autres. Il consiste en un réseau expérimental permettant
l'échange d'informations entre des sites éloignés de recherche et de développement, et pouvant
fonctionner sans interruption, même en cas de destruction partielle du réseau.
Un quart de siècle plus tard, cet outil, utilisé à l'origine par les gouvernements, l’armée et
les universités, devient ludique et convivial. Il détient les arguments pour toucher massivement le
grand public grâce à un mode d'échanges entre ordinateurs révolutionnaire : le World Wide Web.
Créé par Tim Berners-Lee, le format Web introduit l'usage de documents « multimédias ».
Si Internet quitte un univers confiné au texte pour s'ouvrir au son, à la musique, aux images et à
l'animation, la grande nouveauté réside surtout dans le système Hypertexte.
En effet, à la différence de la lecture linéaire, le système Hypertexte n'impose pas un
raisonnement au lecteur. Il crée des liens entre des documents, ce qui favorise le cheminement de
la pensée du lecteur2. Appliqué à Internet, l'Hypertexte permet de passer d'une page Web à une
autre sans besoin d’en connaître la référence, c'est-à-dire l'adresse URL. Le déplacement sur le
réseau, réalisé de centre d'intérêt en centre d'intérêt, devient donc transparent pour l'utilisateur.
Cette convivialité contribue largement à la démocratisation d'Internet.

Après l'invention du courrier électronique et la
création du premier groupe de discussion (newsgroup) dans
les années 70, le Web fait entrer Internet dans une nouvelle
dimension. Fin 1969, le réseau ARPAnet original est
constitué de quatre ordinateurs. En 1994, on compte déjà
deux millions et demi d'ordinateurs sur le réseau Internet et
le particulier commence à s'inviter à cette fête permanente
de la connaissance. Dans cet océan de savoir, il n'est plus
possible de naviguer à vue. Le moteur de recherche est mûr
1 ARPA network : réseau de l'Advanced Research Projects Agency (ARPA), créée après le lancement du satellite
Spoutnik en 1957 pour rattraper le retard technologique des Américains sur les Soviétiques.
2 L'idée de l'hypertexte est née en 1945 dans l'esprit de Vannevar Bush. Ce conseiller du Président Roosevelt a
imaginé une machine à penser rassemblant une immense quantité de documents microfilmés et associés entre eux
dans le but de simuler le cheminement de la pensée.
Arpanet fin 1969

4
pour devenir l'indispensable second du véritable capitaine du vaisseau Internet : l'internaute.
FOCUS : Le modèle de l'annuaire consiste à recenser les sites Internet et à les classer par
thèmes suivant une hiérarchie plus ou moins développée de catégories et de sous-catégories. Un
annuaire est construit et tenu à jour manuellement par des spécialistes qui jugent de l'intérêt et de
la qualité d'un site Internet avant de le répertorier.
La recherche par mots-clés, caractéristique des moteurs de recherche, s'est imposée en
termes d'usage sur la recherche par catégories. Aujourd'hui, seule une recherche sur 15 est
effectuée à l'aide d'un annuaire. D'où l'abus de langage qui consiste à parler de « moteur de
recherche » au lieu de l'expression « outil de recherche ».

5
b. Google™ : le moteur préféré des internautes en France
Etudiants à l'Université Standford (Californie), Jerry Yang et David Filo créent en 1994
un site Internet pour recenser les adresses du Web les plus utiles à leurs travaux. A leur grande
surprise, leur « Jerry's Guide to World Wide Web » est rapidement visité par des centaines de
personnes.
En mars 1995, Yang et Filo décident d'apporter la paix dans les esprits en quête de
connaissance en développant un modèle économique autour de leur annuaire Web. Ils fondent la
société Yahoo!®, en référence aux créatures des "Voyages de Gulliver" de Jonathan Swift,
lesquelles ne songeaient qu'à se faire la guerre pour des prétextes futiles. Le succès est fulgurant.
Le vétéran des outils de recherche généralistes du Web réalise même une entrée spectaculaire en
bourse en avril 1996 avec la vente de 2,6 millions d'actions à 13 dollars l'unité.
Yahoo!® n'est pas historiquement le premier outil de recherche de l'information sur
Internet. Dès 1989, le Wide Area Information Servers (WAIS ) permet de récupérer des
informations dans des bases de données réparties dans le monde. Quatre ans plus tard,
Clearinghouse3 devient le premier guide gratuit des meilleures ressources du Web. Il est élaboré
par des personnes indépendantes et spécialisées dans un domaine spécifique. 1995 est marqué par
le lancement d'Ecila, l'un des premiers moteurs de recherche français, de Lycos, d'Excite, de
Lokace, d'Infoseek, et en décembre, d'Alta Vista™ .
Ce dernier accueille 300 000 utilisateurs le jour de sa mise en service. Six mois plus tard,
il recense 30 millions de pages Web sur 225 000 serveurs et 14 000 groupes de discussion. Alta
Vista™ est alors considéré comme le plus puissant et le plus perfectionné des moteurs de
recherche. Il gère 12 millions de requêtes quotidiennes.

Nomade et Voila seront
respectivement créés en juillet 1996 et
en janvier 1997. C'est pourtant
Google ™, le dernier né des moteurs
de recherche généralistes - ou presque
: All The Web sera lancé en mai 1999
-, qui rafle aujourd'hui la mise en
France.
En effet, selon le baromètre
XiTi/1ère Position4 de novembre
2005, Google™ accapare 81,21 % du
trafic généré par les moteurs de
recherche, loin devant Yahoo!®
(5,04%), Voila (4,63%) et MSN® (3,69%). Ces quatre moteurs de recherche génèrent plus de
95% du trafic.
3 http://www.clearinghouse.net
4 http://barometre.secrets2moteurs.com

6
Arrivé en version française au mois d'avril 2000, Google™ est déjà en tête du premier
baromètre Xiti/1ère Position paru en septembre 2001 avec 30.1% du trafic généré, devant
Yahoo!® (23,3%) et Voila (18,1%). Sa progression sera constante : 54,83% en septembre 2002,
64,19% en septembre 2003 et 73,98% en septembre 2004. Ce succès tient en premier lieu à la
particularité inventée par ce moteur de recherche : la notion de pertinence basée sur la popularité
des sites, l’équivalent de leur notoriété sur Internet.
.
FOCUS : Lors du lancement des premiers liens sponsorisés, Altavista™ n'a pas averti ses
utilisateurs de la vocation commerciale de tels liens. La sanction auprès de la communauté des
internautes a été immédiate. Altavista™ s'est ainsi discrédité avant même que sa pertinence ne
soit remise en question par la nouveauté insufflée par Google™ et son critère de popularité. Cette
chute « historique » montre, si besoin en était, qu'il ne faut jamais chercher à tromper l'internaute.

7
c. La raison du succès de Google™
En septembre 1998, deux autres pensionnaires de l'Université Standford, Larry Page et
Sergey Brin, fondent la société Google™ et innovent grâce à leur système de classement original
des pages Web.
Comme tout moteur de recherche, Google™ utilise un robot (ou spider, crawler - le crawl
décrivant le mouvement d'une araignée sur la toile) pour parcourir systématiquement Internet à
intervalles réguliers, dans le but de relever, étudier et répertorier (indexer) le contenu des pages
Web. Ce robot est attentif à des critères prédéfinis. Il traite les résultats obtenus lors de son crawl
à travers un algorithme 5 qui détermine, par ordre de préférence, quelles sont les pages Web
répondant le mieux à la requête d'un internaute. La recherche est formulée par des expressions
clés composées d’un ou plusieurs mots-clés.
Si les moteurs de recherche se reposent jusque là sur la fréquence d'utilisation des
expressions clés sur les pages Web, les créateurs de Google™ apportent un nouveau critère pour
cibler et classer les pages Web correspondant à une demande particulière : la popularité (ou
notoriété) d'un site Internet, symbolisée par le PageRank™.
La technologie PageRank™ examine à la fois le contenu et la structure des liens d’une page Web
et attribue une note de 0 à 10 en fonction de son importance sur Internet. Cette notoriété gagnée à
travers la communauté internaute est synonyme de vote par les utilisateurs et donc de pertinence
de l'information dans l'esprit originel des créateurs de Google™.

Par rapport à ses concurrents, Google™ a
pris le parti dès 1999 de ne proposer que de
la recherche d’informations, au contraire de
Yahoo® qui s’est peu à peu transformé en
portail et a proposé de plus en plus de
services (météo, actualités, cours de Bourse,
etc.). En outre, Yahoo® s’est longtemps
obstiné à conserver le mode annuaire pour
le classement et la recherche des sites,
privilégiant le surf sur Internet par catégorie
plutôt que par mot-clé. Or, le modèle
annuaire n’a jamais cessé de perdre en
vitesse au détriment du modèle « moteur de
recherche » plébiscité par les internautes.
Si la sobriété de son interface et sa
simplicité d’utilisation ont lancé sa réputation, Google™ a forgé sa réussite grâce à la pertinence
et à la rapidité de ses résultats. Résultat : il est utilisé dans 4 recherches d'internautes sur 5 en
France, et répond en moins d'une demi-seconde, aux requêtes des internautes, lesquelles sont
désormais estimées à 250 millions par jour dans le monde entier.
Google™ a beaucoup misé sur le bouche à oreille pour se développer et n’a pas eu besoin
de dépenser des sommes faramineuses dans la publicité. Sa situation dominante dans la plupart
des pays, quasi-monopolistique en France, ne semble pas près de s’arrêter tant les services
5 Tenu secret

8
proposés par Google™ sont innovants et se démarquent de la concurrence : messagerie de 2 Go
d’espace (Gmail), logiciel de recherche sur le bureau (Google™ Desktop), messagerie
instantanée (Google™ Talk), logiciel de cartographie et de prises de vue satellites (Google™
Earth et Map), logiciel de retouches de photos (Picasa) et outil de création de blogs (Blogger) 6.
but de concurrencer Skype -, voire aussi le développement de son propre système d’exploitation
et de ses propres ordinateurs. Mieux, ces services spécifiques lui permettent de conserver une
certaine pertinente en démontrant sa capacité à gérer toute l’information1. Sa pertinence reconnue
par les internautes l'aide à jouer la carte de la diversification et ainsi, à conserver son hégémonie
et la puissance de son image.
FOCUS : Si le PageRank™ reste un indice majeur pour mesurer la popularité d'un site
Internet, il influe de moins en moins sur son positionnement dans les moteurs de recherche.
Comme toute référence sur Internet, il a été la cible des hackers7 et on sait désormais le
contourner, le dompter. Pourtant, le PageRank™ impose encore une forme de dictature, voire de
psychose, dans le monde du référencement, qu'il convient de pondérer. Aujourd'hui, il est
possible d'atteindre un bon positionnement dans les moteurs de recherche avec un PageRank™ de
niveau 3 ou 4. La popularité dans Internet demeure plus importante que le PageRank™ lui-même.
6 Mais aussi http://blogsearch.google.com/ : pour rechercher dans les blogs
http://print.google.com/ : pour accéder aux livres du domaine public
http://local.google.com/ : pour trouver un restaurant dans son quartier
7 Pour vérifier la mise en évidence d'un "bug" du PageRank™ : http://www.pr10.darkseoteam.com/
Les prochains chantiers de
Google™ concernent les navigateurs, via
un partenariat avec la fondation Mozilla,
les télécommunications et notamment les
communications internationales - dans le
N'oublions pas que Google™ est
populaire parce qu'il convient aux
internautes, dans la mesure où il satisfait la
demande de ces derniers. Cependant, il
pourrait être déserté du jour au lendemain
par les internautes qui ont contribué à son
succès si, par exemple, ce moteur de
recherche décidait de modifier en
profondeur son algorithme et de proposer
des résultats payants dans ses résultats
naturels, avec le risque de perdre
objectivité et impartialité entre résultats
commerciaux et naturels.

9
d. Des concurrents suiveurs
Depuis sa naissance, Google™ a multiplié par mille le nombre de ses pages Web indexées,
tout en gagna nt progressivement en satisfaction auprès du public des internautes. Preuve de sa
santé exceptionnelle, l'entreprise a annoncé un record de bénéfices au troisième trimestre 2005,
avec un chiffre d'affaires global de 1,6 milliards de dollars, soit une hausse de 96% sur l'année,
pour un résultat net de 381,2 millions de dollars. Selon les dernières données Nielsen/Netratings,
45% des recherches dans le monde ont été réalisées sur Google™, soit deux fois plus que sur
Yahoo! ® et quatre fois plus que sur MSN®.
Pour conserver son aura, Google™ doit veiller au respect de cette pertinence des résultats
en peaufinant sans cesse son algorithme de recherche et de classement des pages Web. Or, il
n'intervient pas dans le s contenus des sites Internet. Sa valeur est uniquement fondée sur le
savoir-faire d'un algorithme destiné à détecter les meilleurs talents du Web, en fonction des
attentes des internautes formulées à travers des expressions clés. De plus, une étude américaine
sur la fidélité des utilisateurs aux outils de recherche, rendue publique par Nielsen/Netratings en
mars 2005, montrait que si les utilisateurs de Google™ étaient les plus fidèles du marché des
moteurs de recherche, 6 sur 10 d'entre eux se servaient également des outils de ses deux
principaux concurrents.
C'est de toute façon l'intérêt des entreprises et des
institutions en quête de visibilité sur Inter net d'être référencé
dans les autres outils de recherche (annuaires, MSN® - qui
gagne des parts de marché à défaut d'audience8, etc.).
Toutefois, les concurrents internationaux de Google™
sont essentiellement dans une position de « suiveurs ». Ils
n'innovent pas et se contentent de copier le modèle, alors que
seule l'arrivée d'une technologie innovante pourrait contester
l'hégémonie de Google™.
FOCUS : La France fait preuve d'un réel dynamisme en matière d'outils de recherche.
Travaillant autour de l'intuitivité, le moteur de recherche Exalead.fr offre les services d'un
annuaire avec des catégories et des termes associés aux mots-clés initialement tapés. Quant à
Kartoo.fr, il s'attache à lier les pages Web par leur environnement sémantiq ue (connexe,
complémentaire) en présentant les résultats sous forme d'une carte. Ces deux remarquables
moteurs de recherche ne remportent toutefois pas un franc succès auprès des internautes.
8 Les 30 chiffres clés de la recherche : http://www.mediametrie.fr/resultats.php?resultat_id=198&rubrique=net
Kartoo.fr : les résultats
sous forme d'une carte

10
2. Le référencement : un métier détourné de sa vocation originelle
a. Naissance d'un métier à la rencontre du marketing et de la technologie :
le référencement naturel
Pour une entreprise ou une institution, il ne suffit plus aujourd'hui d'être présent sur
Internet, dont le nombre d'internautes approche le milliard dans le monde et dépasse les 25
millions en France. Il est devenu nécessaire d'exister parmi les 75 millions de sites recensés au
mois d'octobre 2005 pour profiter de l'essor de l'e-commerce, dont le marché a rapporté 12
milliards d'euros de recettes en France en 2004 (croissance de 50% prévue en 2005)9. Internet est
la plus grande bibliothèque du monde, et un site Internet, aussi complet, illustré et intéressant
soit- il, n'est qu'un livre parmi d'autres.
La visibilité sur Internet est indissociable d'une présence dans les moteurs et des annuaires
de recherche, première porte d'entrée sur le Web. Les outils de recherche génèrent environ 30 à
40% du trafic sur Internet en France, l'accès direct (favoris, lien indiqué dans un email, saisie
directe de l'adresse) et les liens externes représentant chacun un peu moins d'un tiers de ce trafic.
De plus, la moitié des utilisateurs d'Internet passent plus de 70% de leur temps de connexion à
rechercher de l'information10 et la part de trafic apporté par les outils de recherche par rapport au
trafic général sur Internet a augmenté de 12% en trois ans.
Selon une étude du baromètre XiTi/1ère Position effectuée en octobre 2004, plus de 80%
des visites sur un site Internet réalisées depuis GoogleTM ont été générées à partir de sa première
page des résultats naturels11, un peu plus de 10% à partir de la deuxième page de résultats
naturels, et moins de 2% au-delà de la troisième page de résultats naturels.
Pour générer du trafic vers un site Internet via les moteurs de recherche, il est préférable
de figurer parmi le triangle d'or de GoogleTM, c'est-à-dire dans les trois premiers rangs de sa
première page de résultats, qui bénéficient de 100% de visibilité12.
Mouvement de l'oeil
sur la 1ère page de GoogleTM
9 4000 milliards de dollars dans le monde entier en 2005
10 Source : http://www.abondance.com. Ajoutons que 99,2% des internautes en France utilisent les outils de
recherches (annuaires et moteurs de recherche)
11 Avec un affichage par défaut de 10 résultats par page
12 http://www.prweb.com/releases/2005/3/prweb213516.htm

Pour générer du business à travers les moteurs de
recherche, il faut non seulement mettre en relation des
internautes avec les produits et services en adéquation avec
leur demande, leurs attentes, c'est-à-dire créer un trafic
ciblé à partir des requêtes des internautes, mais également
de favoriser la transformation de cette visite en achat sur
une boutique en ligne ou en prise de contact via un
formulaire.

11
Cette étude du comportement et des usages des internautes associée à la compréhension
du fonctionnement des moteurs de recherche dans le but de transformer une visite a donné
naissance à un nouveau métier, à mi-chemin entre le marketing et la technologie : le
référencement naturel.
Indépendant de toute transaction (financière ou autre) avec les moteurs de recherche, le
référencement naturel intervient dans trois domaines :
- la recherche des mots clés privilégiés par les internautes en fonction des objectifs d'une
entreprise (ou d'une institution) et la mise en adéquation du contenu du site Internet avec ces
mots-clés
- la mise en conformité de la structure du site Internet, par le respect des standards du
Web en matière d'ergonomie, d'usabilité et d'accessibilité
- la vie du site Internet : rafraîchissement des contenus, animation du site, échange de
liens avec d'autres sites, etc.
Fondé sur une veille permanente des nouveaux usages et de l'évolution des technologies,
le référencement naturel consiste en un transfert de compétences au sein d'entreprises et
d'institutions.

Suite au référencement naturel, le
référencement payant dans les moteurs
de recherche est apparu en France à
partir de 2002. Il s'agit de liens
commerciaux, positionnés à partir de
la première page des résultats lorsque
le mot-clé acheté figure dans la
requête d'un internaute. Ces liens sont
payants pour l'annonceur à chaque clic
généré. Le coût du mot-clé au clic peut
varier entre 0,05 € pour les enchères
minimales sur des requêtes peu
concurrentielles et 6 € pour un terme
très générique comme « crédit », c'està-
dire très fréquemment tapé par les
internautes13. Ce coût est fonctio n d'un
système d'enchères auquel participent les annonceurs et n'est valable que pour un seul moteur de
recherche à la fois. Aux Etats-Unis, le montant dépensé en 2004 pour l'achat d'expressions -clés
dans le cadre de liens commerciaux (sponsorisés) était de 4 milliards de dollars contre 1 milliard
deux ans plus tôt.
Le référencement payant est complémentaire du référencement naturel, pour compenser
un trafic ciblé déficient au lancement d'un site Internet, comme pour augmenter la visibilité lors
d'opérations promotionnelles ou événementielles.
En revanche, le référencement naturel ambitionne une présence pérenne et gratuite dans
les premières pages de résultats de tous les moteurs de recherche. C'est un élément fondateur
dans une stratégie de visibilité et d'acquisition de trafic ciblé sur Internet, qui dépasse le simple
cadre d'une méthodologie vis-à-vis de l'algorithme des moteurs de recherche. Sa mission
première est l'observation du comportement des internautes. Il ne faut surtout pas oublier que les
13 Il peut atteindre 80 € aux Etats-Unis pour certains mots -clés dans le domaine de la chirurgie !

12
liens sponsorisés (ou recherches commerciales) représentent 30% du trafic généré par les moteurs
de recherche… contre 70% pour les résultats naturels !
Pourtant, le référencement naturel, au centre d'enjeux financiers importants et croissants,
peut conduire à des dérives dont il faut prendre connaissance afin de réaliser les bons choix en
matière de promotion on line.

13
b. Des solutions temporaires transformées en dérives
Durant la majeure partie des années 90, la première génération de sites Internet à vocation
commerciale s'est contentée de mettre une page d'accueil, ou guère plus, dans le seul but d'être
présent sur le Web naissant. La seconde génération de sites Internet est issue du clonage en ligne
des plaquettes et documents des entreprises. La troisième génération de sites Internet est en train
d'émerger. Elle utilise enfin les outils propres au média Internet pour toucher les différentes
cibles des entreprises : clients, prospects, salariés, actionnaires, etc.
L'annuaire Yahoo!® en octobre 1996 (extrait de www.archive.org)
déficiences des sites Internet de grandes entreprises en termes de contenus, en attendant que
ceux-ci soient ultérieurement développés en adéquation avec l'identité et la stratégie commerciale
de ses entreprises ou institutions clientes. Elle consiste à dupliquer les contenus déjà existants en
densifiant la présence d'expressions clés. But avoué de la manoeuvre : multiplier artificiellement
la présence des pages Web d'un site sur Internet. Ce procédé est renforcé par l'ajout de liens
(souvent cachés) vers les pages Web originelles du site Internet afin d'augmenter - toujours de
manière artificielle - sa popularité sur Internet. Pour parfaire la méthode, on invente le cloaking,
un moyen de détection technique qui détermine si le visiteur d'une page Web est un internaute ou
un moteur de recherche 14. Si le visiteur est un moteur de recherche, on lui fournit une page
optimisée à sa lecture, avec par exemple un grand nombre d'expressions clés répétés.
Cette astuce technique se décline sous diverses formes : pages satellites (doorway page ou
pages aliasTM), sites miroirs (la copie conforme du site originel, uniquement prévue pour les
moteurs de recherche mais pas pour les internautes). Son intention est claire : bombarder les
moteurs de recherche de centaines, de milliers de pages artificielles, cachées, dans le but
d'accroître l'indexation d'un site Internet. D'où la condamnation par les moteurs de cette pratique,
à ranger dans la catégorie du spamdexing.
14 Notamment à partir de l'adresse IP, ce qui implique de connaître la liste des adresses IP des robots des moteurs de
recherche.
Apparu vers la fin des années 90,
le métier du référencement
propose, à l'origine, l'inscription
dans les outils de recherche et
l'optimisation technique des sites
Internet. Au tournant de l'an
2000, pour répondre à l'urgence
fortement exprimée par des
clients d'apparaître rapidement en
tête des pages de résultats des
moteurs de recherche, les
référenceurs commencent à
privilégier une solution purement
technique. Cette astuce simple et
efficace devait seulement les

14
En dépit de leurs efforts, les moteurs de recherche ont longtemps éprouvé des difficultés à
déceler le spamdexing. Efficaces sur le court terme, les pages satellites perdurent et se
généralisent, plébiscitées par les éditeurs de sites Internet. L'effet sera pervers pour le métier du
référencement.
D'où le sentiment répandu que les référenc eurs sont des sorciers, aux méthodes
complexes, floues, voire obscures.
Ce constat est éloigné des fondements du référencement naturel, conçu à l'origine pour
développer une stratégie innovante avec les utilisateurs et adaptée aux formidables outils offerts
par le média Internet.
Pis, la solution de facilité des pages satellites a colporté l'idée que le référencement était la
dernière des opérations à réaliser lors de la conception d'un site Internet. Or, c'est l'inverse : le
référencement naturel doit être intégré en amont de cette conception, afin de construire le site
Internet en fonction des expressio ns-clés particulières à l'identité et au secteur d'activité d'une
entreprise.
Cet effet pervers des pages satellites a été d'autant plus ressenti en France que GoogleTM
et sa pertinence disposent d'une position hégémonique dans notre pays.
Si nombre de référenceurs perpétuent encore la pratique des pages satellites - ou pages
alias TM -, les moteurs de recherche, et en particulier GoogleTM, ont ouvertement déclaré la guerre
aux éditeurs de site Internet peu scrupuleux sur leurs méthodes de référencement naturel.
FOCUS : Si chaque Webmaster décidait de dupliquer ne serait-ce qu’une fois le contenu
de ses sites Internet, GoogleTM ne devrait plus indexer 8 mais 16 milliards de pages Web. Avec,
comme problème à la clé, le dimensionnement de ses serveurs pour gérer une telle masse
d'informations, et donc le risque économique de devoir supporter financièrement cette duplication
abusive de contenus. C'est l'une des raisons pour lesquelles GoogleTM veille au grain, outre le fait
majeur que cette reproduction abusive des contenus dilue l'information et donc la pertinence de
l'information pour l'utilisateur final.
Aujourd'hui, les éditeurs
de sites Internet ont en effet
souvent une vision réduite de
l'action des référenceurs. Ils la
résument trop souvent à une
intervention purement technique.
Ils considèrent même les
référenceurs comme d'habiles
manipulateurs de formules
magiques (écrites en langage
HTML1) capables de positionner
leur site Internet au sommet des
pages de recherche en dépit du
bon sens.

15
c. Comment Google™ cherche à préserver sa notion de pertinence
Comme l'a encore récemment démontré son refus de la course au nombre de pages Web
indexées, Google™ demeure attaché à la qualité des pages Web plutôt qu'à leur quantité. Il refuse
notamment le gonflement artificiel de sa base de données par les pages satellites (pages alias TM).
En effet, ces pages représentent une menace de dilution de la pertinence pour l'utilisateur. elles
trompent même l'internaute quand elles sont conçues pour répondre à des expressions clés sans
proposer de contenu approprié.
Google™ ne s'est pas cantonné à condamner le spamdexing dans son ensemble à travers
une charte éditoriale, décrivant clairement les recommandations à suivre par les éditeurs
(administrateurs) de sites Internet15. Ce spécialiste des technologies de recherche s'est donné
comme priorité le développement de filtres permettant de détecter les méthodes frauduleuses de
mise en valeur d'un site Internet. En particulier : Texte ou liens masqué(s), Mots clés répétés ou
trompeurs, Contenu de page différent de la description Google, Pages masquées (« cloaking »),
Redirection trompeuse, Page satellite (« doorway »), Site ou pages répété(es).
Ces filtres s'avèrent de plus en plus efficaces au fil du temps. Après de multiples mises en
garde, Google™ a sanctionné les sites Internet qui ne mettaient pas en application sa charte
éditoriale par une mise sur liste noire (blacklistage), c'est-à-dire une exclusion des pages Web et
des liens dans ses résultats ainsi qu' une mise à zéro du PageRank™16. Il incite dorénavant les
utilisateurs à lui reporter les cas de spamdexing grâce à un formulaire en ligne 17
Etre blacklisté ou
déréférencé par Google™
n'est pas irrévocable. Si
un site blacklisté
supprime toutes les
techniques frauduleuses
qu'il emploie et montre
des signes de bonne
volonté en respectant les
recommandations de
Google™, il peut réintégrer
les pages de
résultats de Google™ en
quelques mois, voire en
quelques semaines.
Le bon sens de
Google™ ne s'est pas
arrêté à cette mesure.
Pour redonner toute son efficacité à la technologie PageRank™, Google™ travaille en secret sur
un outil de lutte contre le spamdexing : le Trust Rank©.
15 http://www.google.fr/intl/fr/webmasters/seo.html
16 Attention : un nouveau nom de domaine possède également un PageRank™ égal à 0.
17 http://www.google.fr/webmasters/spamreport.html

16
En mars 2005, Google™ a déposé de nombreux brevets auprès de l'USPTO (United States
Patent and Trademark Office) portant sur l'amélioration de la classification des pages Web en
fonction du sérieux de leur éditeur, de leur date de parution, ou encore, de la taille des articles.
Son but : créer un nouvel indice visant à définir la fiabilité de la source d'une information, à
travers l'établissement d'une short list de « sites d’autorités ». Cette initiative est fondée sur les
travaux de deux chercheurs de… l'université Standford (Zoltan Gyongyi et Hector Garcia-
Molina). Elle prendrait le nom de Trust Rank©, un terme récemment déposé par Google™.
A l'origine, le Trust Rank© est destiné au service de dépêches Google™ News, pour
distinguer les bloggers peu fiables du travail des journalistes professionnels. Il servirait également
la lutte contre le spamdexing, en indiquant le degré de confiance accordé à une page Web,
compris entre 0 (spam) et 1 (page de référence, garantie « saine » après une analyse manuelle
réalisé par un humain). Par propagation et analyse des liens entre les pages, l'algorithme du Trust
Rank© détermine si les autres pages Web sont également « saine s » ou si, au contraire, elles sont
une version de spam (pages satellites, etc.), en partant du principe que les pages « saines »
pointent rarement vers des pages de spam.
Google™ réaffirme ainsi sa ligne de conduite, identique depuis ses débuts, et figurant
comme le premier des dix points de sa philosophie18 : « rechercher l'intérêt de l'utilisateur, et le
reste suivra ». C'est l'une des raisons pour lesquelles Google™ s'est toujours défendu de mettre en
place des solutions de référencement XML19, cette action étant considérée comme du spam.
Le comportement de l' internaute, libéré des contraintes spacio-temporelles de la vente et
des approches commerciales directes par rapport au consommateur du monde physique, est au
coeur de l'évolution du métier du référencement.
FOCUS : Rarement décrié, le référencement XML (ou trusted feed) apparaît comme une
hérésie au regard du respect de l'internaute. Cette technique de référencement payant consiste à
alimenter de manière automatisée des outils de recherche, le client soumettant les pages Web à
référencer, en particulier les contenus difficiles à indexer de manière naturelle tels les bases de
données. Cette forme légalisée de spam est notamment proposée par Voila et Yahoo® à l'insu de
l'internaute, lequel n'est pas averti que le s pages Web issues du trusted feed apparaissent dans les
résultats naturels de ces outils de recherche alors qu'il s'agit d'un référencement payant (sous
forme d'un coût au clic). En outre, le trusted feed ne fonctionne pas totalement, car Voila et
Yahoo® éprouvent des difficultés à faire remonter les pages référencées par XML dans les
résultats naturels.
Il n'existe qu'un seul cas de figure où le flux XML apporte une solution satisfaisante pour
l'internaute et les clients : la soumission d'un catalogue produit dans l'espace marchand
(shopping) d'un moteur de recherche. C'est le cas de l'expérience Froogle proposée par
Google™… qui existe encore en version beta parce que les utilisateurs n'ont pas été séduits.
18 http://www.google.fr/intl/fr/corporate/tenthings.html
19 Alimentation de la base de données d'un moteur de recherche par le biais d'un flux XML.

17
3. L'internaute : le coeur de métier oublié du référencement
a. La prise de pouvoir de l'internaute et le respect de la Netiquette
Par son affranchissement des contraintes horaires, des frontières, de l’apparence physique,
et même de l’obligation de se conformer à une et une seule identité, Internet a bouleversé la
relation humaine. Il est devenu un outil de liberté pour l'être humain, au sens où Internet lui
permet de ne jouer partout que le rôle qu'il souhaite maîtriser, en lui offrant de se retirer à tout
moment. Mieux, « la démocratie fonctionne sur Internet », comme le souligne le quatrième point
de la philosophie Google™. De façon bien plus efficace que dans la vie réelle, serait-on tenter
d'ajouter. Le succès phénoménal d'une entreprise comme Ebay™20, première plate-forme
marchande en France, rappelle combien l'on peut fonder le succès d'une entreprise sur le respect
de l'esprit communautaire d'Internet.
Tout le monde n'a pas immédiatement intégré cette culture de l'Internet, où les règles de la
vie courante - et a fortiori les techniques du marketing traditionnel - ne peuvent s'appliquer, bien
que l'on reste confronté à des êtres humains de l'autre côté de la machine.
Dès octobre 1995, face à l'émergence d'un réseau international, des spécialistes de la vie
en réseau - « réseau » au sens humain du terme (sociologues, psychologues, etc.) - ont estimé
nécessaires d'édicter des règles de savoir- vivre, dénuées de toute connotation religieuse,
politique, culturelle ou sociale. Cette initiative - appelée Netiquette21 - était fondée sur l’idée que,
sans un minimum d’entendement sur l’usage de l’Internet, cet outil ne serait plus utilisable et
pourrait s’effondrer.
Comme le rappelle
l'introduction de la Netiquette,
les premiers utilisateurs
d'Internet avaient grandi avec
ce réseau et étaient attentifs à la
technique. Ils comprenaient la
nature des échanges dans un
environnement technologique.
Au contraire du grand public,
pour qui Internet a été rendu
accessible à tout néophyte en
matière de technologie grâce au
World Wide Web et à son
langage originel, le HTML. La
Netiquette s'est chargée
d'apporter - avant l'heure ! -
une synthèse du vécu de
20 160 millions d'utilisateurs dans le monde, un volume de vente estimé en 2005 à 40 milliards de dollars, 725 000
personnes vivant aux Etats-Unis partiellement ou totalement grâce à Ebay™
21 Egalement connue sous le pseudonyme de « RFC 1855 ». Pour une version complète de la Netiquette, présentée
sous une forme ludique : http://www.netique-toi.org/

18
l'internaute, afin de lui éviter de tomber dans les pièges les plus courants, la finalité étant une
exploitation harmonieuse des possibilités de communications offertes par Internet, sans
encombrer le réseau ni gêner ses utilisateurs.
Les recommandations de la Netiquette n'ont pas vocation à réprimander l'utilisateur ou
l'éditeur, mais à le préserver. Par exemple, elles donnaient déjà tous les éléments concernant la
protection des mineurs sur Internet, bien avant que l'opinion publique ne s'en émeuve et n'amène
le gouvernement français à rendre obligatoires les logiciels de filtrage et de contrôle parental22.
En ces heures où l'on s'inquiète de la protection de la vie privée, comment ne pas être
sensible à ce condensé de bon sens : « A moins d'utiliser un outil de chiffrement (matériel ou
logiciel), vous supposerez que le courrier sur l'Internet n'est pas sûr. Ne mettez jamais dans un
message électronique quelque chose que vous ne mettriez pas sur une carte postale. »
Mêmes les recommandations les plus obsolètes en
apparence ont encore leur raison d'être aujourd'hui. L'une
d'entre elles incite à ne pas envoyer des fichiers de plus de
50 kilo -octets, indiquant au passage : « Soyez conscient de
la longueur des messages que vous envoyez. ». Pourtant,
l'envoi d'emails de plusieurs méga -octets provoque encore
aujourd'hui des problèmes de messagerie électronique
dans les sociétés, en particulier dans les connexions
Internet nomades souvent développées en bas débit
(réceptions sur PDA, etc.).
En vertu de la configuration du média Internet, il ne faut jamais oublier que les
conséquences d'un non-respect de la Netiquette sont rapides et incontrôlables. N'importe qui,
quelles que soient ses qualités dans la vie réelle, peut être banni d'un forum et exclu avec
l'impossibilité de se faire enregistrer et réintégrer s'il ne respecte pas les règles élémentaires de
savoir-vivre sur Internet.
La Netiquette recommande une intelligence d'usage, entre connaissances des réseaux
informatiques et savoir-vivre en réseau humain. Elle est tout indiquée pour le référencement, à
mi-chemin entre la technologie et le marketing. Comment d'ailleurs ne pas effectuer le parallèle
entre l'exclusion d'un forum pour un internaute malgré ses qualités humaines dans la vie réelle et
la mise sur liste noire de GoogleTM du site Internet d'une entreprise renommée pour ses produits
ou services ?
Universelle et atemporelle, la Netiquette a posé les bases et les fondements de l'Internet,
tant pour les utilisateurs, que pour les éditeurs de produits et de services sur Internet. Si personne
ne se risque à déterminer quels seront les services de l'Internet dans trois ans, nous pouvons
affirmer que les fondements même de vie sur Internet n'auront pas changé d'ici dix ans et qu’ils
sont contenus dans l'esprit et la philosophie de l’inaltérable Netiquette.
Pour une entreprise qui souhaite développer du business sur Internet, s'imbiber de l'esprit
et de la philosophie de la Netiquette est le terreau de la réussite sur Internet.
Pourtant, si Ebay™ et Google™ ont respectivement célébrés leurs 10 et 7 ans en septembre
2005, la Netiquette a fêté son dixième anniversaire un mois plus tard dans l'anonymat le plus
complet. L'idée d'éthique sur l'usage d'Internet est pourtant récurrente depuis 1995.
22 http://www.zdnet.fr/actualites/internet/0,39020774,39265353,00.htm

19
b. Netiquette, charte éditoriale de Google™ et LCEN : même combat
La charte éditoriale de Google™ repose sur les mêmes fondements que la Netiquette, c'està-
dire des règles de savoir-vivre universelles destinées à satisfaire l'inte rnaute, l'utilisateur final
d'un moteur de recherche. Elle ambitionne également une exploitation harmonieuse des
possibilités de communications offertes par Internet, sans encombrer le réseau ni gêner ses
utilisateurs. En cas de non-respect de ces règles de bonne conduite, la conclusion est identique :
sans un minimum d’entendement sur l’usage de l’Internet, cet outil ne serait plus utilisable et
pourrait s’effondrer.
Le message envoyé par la L.C.E.N n'est pas nouveau : « rechercher l'intérêt de
l'utilisateur, et le reste suivra ».
Pour le référencement, dont l'internaute est le coeur de métier, il devient nécessaire
d'établir clairement un code de déontologie, inspiré de la Netiquette, de la charte éditoriale de
Google™ et de la L.C.E.N. Pour pérenniser l'exercice de la profession aussi bien que l'usage
d'Internet.
C'est l'un des trois buts de ce livre blanc sur le référencement : énoncer clairement ce
qu’un référenceur peut faire et ce qu’il ne peut pas faire. Le second but est d'expliquer en détail
comment le référencement naturel, s'il est intégré en amont de la conception d'un site Internet, est
une solution performante et durable pour être visible sur Internet. Le référencement naturel
demeure en effet l' indispensable socle au développement d'une stratégie globale sur Internet,
définie en fonction des moyens humains et financiers, et de l'identité de l'entreprise. Le troisième
but est d'anticiper l'évolution d'Internet et de donner des voies pour exploiter les outils
spécifiques à ce média.
Adoptée en juin
20041, la Loi pour la
Confiance en l'Economie
Numérique (L.C.E.N) a
accrédité le besoin de
règles de bonne conduite
sur Internet. Elle a
notamment renforcé les
mentions obligatoires sur
les sites de commerce
électronique et la
responsabilité des
vendeurs (livraison,
indication des noms et
versions du logiciel
effectuant la transaction
financière, etc.).

20
FOCUS : Les guidelines de Google™
« Conseils concernant la qualité : Généralités » :
- Concevez vos pages pour les utilisateurs, et non pour les moteurs de recherche. Ne
trompez pas les utilisateurs en affichant un contenu pour les moteurs de recherche différent de
celui qui leur est présenté (technique appelée « cloaking » ou masquage).
- Évitez les « astuces » destinées à améliorer le classement de votre site par les moteurs de
recherche. Vous devriez en principe pouvoir expliquer en toute sérénité à un site Web concurrent
les solutions que vous avez adoptées. Vous pouvez également vous poser les questions suivantes :
ces solutions sont-elles une aide pour les utilisateurs ? Aurions-nous fait appel à ces techniques si
les moteurs de recherche n'existaient pas ?
- Ne participez pas à des systèmes d'échanges de liens conçus pour améliorer
artificiellement le classement PageRank de votre site. Évitez tout particulièrement les liens vers
les polluposteurs ou les « voisinages douteux » sur le Web, car ces liens risqueraient d'avoir une
incidence négative sur le classement de votre site.
- N'utilisez pas de programmes non agréés pour demander l'indexation de vos pages,
vérifier votre classement, etc. Ces programmes consomment des ressources informatiques
inutilement et constituent généralement une infraction à nos conditions d'utilisation. Google
déconseille l'emploi de produits tels que WebPosition Gold™, qui envoient des requêtes
automatiques ou programmées à Google.
« Conseils concernant la qualité : Recommandations précises » :
- Évitez le texte ou les liens cachés.
- N'utilisez pas de pages masquées (« cloaking ») ou de redirections trompeuses.
- N'envoyez pas de requêtes automatiques à Google.
- Google s'efforce d'apporter des solutions évolutives et automatisées aux problèmes
plutôt que de les traiter au cas par cas. Ne multipliez pas les termes sans rapport avec le contenu
réel de votre site.
- Ne créez pas plusieurs pages, sous-domaines ou domaines présentant un contenu en
grande partie identique.
- Évitez les pages satellites (« doorway ») créées exclusivement pour les robots de moteur
de recherche ou d'autres solutions telles que les programmes d'affiliation sans véritable contenu
informatif.
Nous abordons ici les techniques de tromperie ou de manipulation les plus courantes.
Google est cependant prêt à réagir à toute autre pratique malhonnête (tromper les utilisateurs en
enregistrant une version volontairement erronée du nom de sites Web populaires, par exemple).
Ne déduisez pas que les pratiques trompeuses non mentionnées sur cette page sont autorisées par
Google. Les administrateurs de sites Web qui s'efforcent de re specter les principes énumérés sur
cette page offriront à leurs utilisateurs une navigation plus agréable et obtiendront pour leur site
un meilleur classement que ceux qui recherchent en permanence les failles de notre système.

21
4. Définition d'un code de déontologie pour le référencement
Le référencement naturel est l'art de créer, à partir des résultats naturels des moteurs de
recherche, un trafic ciblé, de manière gratuite et pérenne, tout en respectant les internautes et le
fonctionnement des moteurs de recherche. Il consiste donc :
- à présenter aux internautes et aux moteurs de recherche un site Internet conforme d’une
part à leurs caractéristiques de navigation, et d’autre part à leurs critères de collecte et de
classement des pages Web.
- à développer la popularité d’un site Internet aussi bien dans l'intérêt des internautes que
dans celui des moteurs de recherche.
Ne se limitant pas à une optimisation du site Internet pour les pages de résultats naturels
des moteurs de recherche, le référencement naturel est une démarche full webmarketing qui vise à
augmenter de manière significative le taux de transformation d’un site Internet (formulaire,
contact ou vente en ligne) en optimisant ce dernier selon les attentes des internautes.
Face aux dérives du métier du référencement, il devient impératif de respecter les 12
recommandations suivantes, inspirées de la Netiquette, des conseils de Google TM et de la Loi sur
la Confiance en l'Economie Numérique :
1. Ne pas envoyer d’emails non sollicités (spam) pour prospecter et démarcher des
clients, sauf consentement explicite pour recevoir des offres commerciales.
2. Ne pas promettre de garanties de positionnement dans les moteurs de recherche alors
que cet engagement est matériellement impossible.
3. Tenir à disposition des clients un document présentant la méthodologie utilisée de
manière transparente, tant sur ses atouts que sur ses contraintes.
4. Ne pas utiliser, ni prescrire d’outils ou services pour augmenter de manière artificielle
la popularité d’un site web.
5. Faire la distinction entre le référencement obtenu par le trafic généré de manière
naturelle par les moteurs de recherche et le référencement obtenu de manière payante
(par le référencement payant) dans l'utilisation des budgets du client
6. Ne pas utiliser, ni prescrire la technique de pages satellites et d’une manière générale
de duplication de contenus sur un ou plusieurs noms de domaines (appelés « domaines
parallèles »).
7. Ne pas cacher du texte et des liens dans les pages d’un site à référencer.
8. Ne pas utiliser de technique visant à tromper le moteur sur le contenu réel d’un site
(cloaking) ni à utiliser de redirections trompeuses pour les utilisateurs.
9. Ne pas positionner un site Internet sur un mot-clé sans rapport avec le contenu réel du
site.

22
10. Ne pas nuire au référencement d’un site concurrent pour le compte d’un client et ne
pas utiliser comme mots clés les noms de marques déposées de sites concurrents.
11. Ne pas utiliser d'outils ou services pour augmenter le trafic à travers des clics générés
de manière artificielle sur un site Internet.
12. Ne pas placer de liens, à l'insu du client, dans ses pages Web pour augmenter la
popularité d'un autre site Internet que celui du client.

23
2ème partie : Le référencement naturel, dans l'intérêt conjugué des internautes
et des moteurs de recherche
1. Pourquoi intégrer le Référencement naturel en amont d'un projet de site Internet
a. L'art de créer du trafic ciblé
Le référencement consiste à mettre en relation un site Internet traitant spécifiquement
d'une ou plusieurs thématiques et un internaute en recherche active de cette information sur un
moteur de recherche.
Les expressions clés exprimées par les internautes assurent la liaison entre le site Internet
(des produits ou des services) et l'internaute (les consommateurs). Actuellement, si moins d'un
tiers des requêtes est effectué avec un seul mot-clé, plus de la moitié des requêtes est affinée par
l'usage de deux ou trois mots clés dans les expressions clés saisies par les internautes.
Au centre de toute stratégie de référencement, les expressions clés doivent être ciblées
avec attention. Mal sélectionnées, elles créent du trafic non ciblé à perte et donne nt une mauvaise
image du site à l'internaute en créant une frustration chez l’utilisateur. Bien déterminées, elles
disposent d'un pouvoir de communication évident sur l'internaute et ont un impact fondamental
dans la transformation des visiteurs en acheteurs ou prospects potentiels.
En amont de toute conception de site Internet, on étudie les expressions clés à partir
desquelles on construira les pages Web correspondant à la demande et au besoin réel des
internautes. Ces expressions clés précisent les centres d'intérêt de l'internaute. Elles induisent
ainsi le sens de parcours recherché par l'internaute dans un site Internet, ainsi que les contenus et
services à proposer en fonction de la demande réelle des utilisateurs.
Certes, des outils de suggestions
d'expressions clés 23, proposés par Overture®24
ou GoogleTM Adwords, défrichent cette étude
sémantique. Toutefois, appréhender les
habitudes et les désirs des internautes à travers
le langage exprimé dans les moteurs de
recherche requiert une indispensable expertise,
tant dans l'agence de référencement que chez
son client.
D'une part, cette expertise s'appuie sur
des éléments propres à la sémantique :
ajustement entre le vocabulaire des métiers et
celui des internautes, choix du singulier/pluriel
ou des accents, composition d'expression, mode de construction d'une recherche chez l'internaute,
etc. En outre, il n'est pas possible de communiquer de la même manière sur Internet qu'à la
23 http://inventory.fr.o verture.com/d/searchinventory/suggestion/?mkt=fr&lang=fr_FR
24 Le créateur des liens sponsorisés sur les moteurs de recherche, lancés aux Etats -Unis en 1997

24
télévision ou dans la presse. Nombre de marketeurs pensent encore - à tort - que c’est à l’univers
d'Internet (moteurs, internautes..) de s’adapter !
D'autre part, cette expertise repose sur des notions propres au marketing : identification de
l'objectif réel du site - informer, vendre, etc. -, stratégie de communication de l'entreprise, étude
de la concurrence et des expressions clés sur lesquelles elle est positionnée dans les moteurs de
recherche, justification des expressions clés par rapport à l'activité de l'entreprise, évolution du
comportement des internautes, etc.
Ce travail consistant à analyser le comportement des internautes à travers les expressions
clés utilisées pour rechercher une information précise s'appelle le keyword marketing. En d'autres
termes, il consiste en une étude de marché en ligne, réalisée en temps quasi-réel25 et avec une
remarquable précision.
Le keyword marketing sert à déterminer la structure du site Internet et les axes pour
développer des contenus en ligne 26. Il génère ainsi un trafic ciblé, en positionnant un site Internet
sur des expressions clés propres à l'activité d'une entreprise (ou d'une institution) et traitées de
manière spécifique et correcte dans les contenus pour satisfaire l'attente de l'internaute.
Une fois ces expressions clés déterminées, il faut les utiliser dans le site Internet en
répondant à deux conditions étroitement liées : satisfaire les attentes des internautes en matière
d'usage ("usabilité" et ergonomie d'un site Internet) et comprendre les modes de lecture des
moteurs de recherche (accessibilité d'un site Internet). Sans jamais s'écarter de l'objectif visé :
créer du trafic ciblé et utile.
C'est pourquo i il est indispensable d’utiliser des outils de mesure d’audience pour pouvoir
analyser les expressions clés tapées, les taux de visites à 1 page, les durées des consultations, le
nombre de pages consultées… et ainsi établir les indicateurs de mesure du retour sur
investissement.
choisir dès le départ des expressions clés trop génériques dans un travail de référencement. Or,
plus les mots clés sont ciblés, plus ils transforment une visite en achat ou contact. En outre,
travailler sur des termes génériques reste l'apanage de sites disposant de la légitimité à se
positionner au niveau national, notamment en raison des coûts engendrés par une telle opération.
Exemple caractéristique : un mot-clé tel qu'« automobile » n'apportera pas de trafic ciblé à un
modeste concessionnaire de Province, qui n'aura de toute façon pas les moyens humains pour
traiter des demandes d’envergure nationale.
Il devient aujourd'hui stratégique pour une entreprise d'intégrer le référencement naturel
en amont de la conception d'un site Internet. Cette décision donne une dimension nouvelle au
25 La recherche s’effectue souvent d’un mois sur l’autre et n’est pas totalement du temps réel. Les o utils de
suggestion des mots clés ne portent pas sur des échantillons mais bien sur les demandes réelles exprimées par les
utilisateurs
26 Ce travail peut également être à la base d'une campagne de positionnement publicitaire
L'enjeu n'est pas de créer du trafic en termes de
volume.
Cette erreur a déjà été manifeste à l’époque de la
dérive de la bulle Internet, au moment où l'on a valorisé les
sites en fonction de la quantité de visiteurs, et non de leur
qualité. Mieux vaut un site avec moins de trafic et plus de
transformation, qu’un site à fort trafic qui ne transforme pas
ses visites en raison d'un manque de ciblage des internautes.
Dans cet ordre d'idées, une erreur récurrente consiste à

25
rayonnement du site auprès des internautes, puisqu'elle influence directement le choix des
contenus et donc la qualité du trafic ciblé généré.
FOCUS : L’outil de suggestions d'expressions clés d’Overture® se révèle de plus en plus
imprécis. Victime de son succès, il donne des résultats essentiellement biaisés par les outils de
mesure du positionnement, qui simulent des requêtes et modifient le volume réel des requêtes
tapées par les internautes. Il sert à donner une tendance, laquelle reste à conforter par l’analyse
des résultats du trafic réellement généré, des stratégies des concurrents et de l’évolution des
usages des mots-clés.

26
b. Accessibilité et référencement naturel : mêmes valeurs
En 1994, le Word Wide Web Consortium (W3C) est créé par Tim Berners-Lee. Son
objectif est de préserver les échanges sur Internet27, et donc la compréhension de l'originel
HTML et de ses langages dérivés (XHTML, XML, CSS, etc.)28 par toutes les machines
connectées à Internet.
Le Consortium W3C émet des directives ou recommandations 29, visant à rendre le
contenu des pages Web plus accessible à tous les internautes, indépendamment du navigateur
Web et du système d'exploitation (PC, Macintosh, etc.), et quelques soient les contingences
imposées par l'environnement d'utilisation (lieu bruyant, sur- ou sous-éclairé, besoin de garder les
mains libres, etc.). L'accessibilité est souvent considérée comme destinée aux seules personnes
handicapées ou apparaît comme défendue par les référenceurs uniquement pour des raisons
démagogiques. Or, sa mise en pratique permet à un site Internet de retransmettre la même
information à tous les internautes, quel que soit leur équipement, leur type de connexion, leur
habitude de surf, leur capacité visuelle…
L'accessibilité impose essentiellement
la séparation du
fond et de la forme, c'est-àdire
du contenu d'un site
Internet et de son embellissement.
Elle conduit à une
simplification et un allégement
du code informatique
des pages Web dans le
but d'augmenter le potentiel
d'internautes d'un site
Internet. C'est pourquoi,
logiquement, les normes
d'accessibilité sont reconnues
en priorité par les
moteurs de recherche et sont
garantes d'une indexation de
l'ensemble des contenus d'un site Internet. Certaines normes d'accessibilité influent même sur le
positionnement d'un site Internet dans les résultats naturels d'un moteur de recherche.
Par exemple, la balise TITLE, dont le contenu désigne le titre d'une page Web, figure
parmi les éléments plus influents pour positionner une page Web par rapport à un mot-clé. De
27 « Mettre le Web et ses services à la disposition de tous les individus, quel que soit leur matériel ou logiciel, leur
infrastructure réseau, leur langue maternelle, leur culture, leur localisation géographique, ou leurs a ptitudes
physiques ou mentales. » Tim Berners-Lee.
28 Ceux-ci offre nt davantage de possibilités de présentation des contenus multimédias et d'utilisation des liens
hypertextes que le langage HTML.
29 Les directives pour les contenus de pages au format Web s'intitulent Web Content Accessibility Guidelines
(WCAG). Les directives pour les agents utilisateurs, c'est-à-dire tout ce qui permet d'appeler et d'afficher une page
Web (navigateur, robot, téléphone portable, PDA, etc.), se nomment User Agent Accessibility Guideslines (UAAG).
Ces deux listes de directives ou recommandations sont éditées par le Web Accessibility Initiative (WAI), organisme
de référence pour l'accessibilité du Web issu du W3C.

27
même, la place du mot-clé dans la balise est d'autant plus déterminante qu'elle se situe en tête de
balise. Les moteurs de recherche accordent également une importance de plus en plus
significative aux autres balises de mise en forme du texte dans les pages Web, intitulées H1,
H2… jusqu'à H6. Ils testent ainsi la position et la densité des expressions clés au sein des
termes qui composent ces balises et leur affectent une importance décroissante de H1 à H6.
Les balises permettent en outre la structuration et la hiérarchisation de l’information.
Autre exemple : l'attribut ALT="" propose une alternative textuelle à une image. Elle est
capitale pour les internautes comme les moteurs de recherche, car elles leur donnent la capacité
d'interpréter une image. Elle ne doit toutefois pas être détournée de sa fonction.
Le développement de l'accessibilité - le développement "durable" - est préconisé dans le
référencement naturel dans l'intérêt conjugué des internautes et des moteurs de recherche.
FOCUS : En France, il existe une Labellisation de l'accessibilité d'un site Internet, Label
Accessiweb, dont les 92 points de contrôle pour un niveau Or (ou AAA) s'appuient sur les Web
Content Accessibility Guidelines (WCAG). Notre entreprise, 1ère Position, sera l'une des
premières agences de référencement à posséder un expert Accessiweb pour l'évaluation de site
Internet, comme pour les offres de refonte ou remaniement de site.

28
c. Usabilité : fidéliser les internautes
Après avoir capté l'internaute à travers les moteurs de recherche, un site Internet doit le
fidéliser en répondant à ses attentes, selon quatre axes : la pertinence éditoriale du contenu et sa
fréquence de mise à jour, le confort de navigation, l'apport d'informations personnalisées et le
développement du sentiment communautaire.
La pertinence éditoriale du contenu d'un site Internet et de l'information divulguée doit
parfaitement répondre à la requête de l'internaute. Il n'est pas rare que l'expression même de la
requête (exemple : « économie de la France ») ne soit absolument pas mentionnée dans le texte
d'une page Web classée dans les premières places d'un moteur de recherche 30. Une fois
l'information correctement développée en fonction du mot-clé sur lequel on désire la positionner,
il est nécessaire de la mettre en valeur face à des visiteurs pressés, utilisant une lecture de
balayage dans 4 cas sur 531. C'est pourquoi, par exemple, il est primordial de mettre en caractère
gras les expressions clés prioritaires pour l'internaute. Enfin, la fréquence de rafraîchissement (ou
mise à jour) d'un site Internet est l'élément le plus influent sur la fidélisation des visiteurs,
d'autant plus qu'elle accélère la fréquence de passage du robot d'un moteur de recherche32.
La fatigue entraînée par la
lecture à l'écran perturbe la
compréhension intellectuelle des
messages véhiculés par un site
Internet. Il devient alors précieux, pour
conserver son lectorat, d'installer un
confort de navigation pour l'internaute
à travers l'ergonomie du site Internet.
La lisibilité d'une page Web passe en
premier lieu par des évidences, loin
d'être rigoureusement appliquées :
éviter le défilement de pages longues,
respecter les standards de lecture (tel
qu'un lien hypertexte non visité est de
couleur bleue, et devient violet après usage), etc. Ensuite, l'esthétisme du site Internet doit être
agréable, sobre et professionnel. Il n'est pas nécessaire d'investir des sommes astronomiques dans
des créations artistiques trop originales, en particulier dans la technologie Flash, dont la richesse
créative est aussi source de zapping dans la population internaute. C'est d'ailleurs un étonnant
paradoxe : plus un site est tourné vers le grand public, plus il déploie d'efforts de séduction, et
plus ces efforts se traduisent par l'ajout d'artifices déroutants pour l'utilisateur. L’exemple le plus
marquant est constitué par les pages de pré-accueil composées d’animation qui, outre le fait
qu’elles empêchent l’indexatio n du site par les moteurs, altèrent la rapidité de navigation des
internautes. D’une manière générale, le Flash est un format très intéressant pour mettre en valeur
de manière esthétique des informations ou des photos. Il faut cependant l’utiliser si et seulement
30 La faute aux pages satellites !
31 Les internautes ne lisent pas mot à mot, mais en parcourant le texte à la recherche d'expressions clés
32 La mise en valeur des expressions clés a aussi une incidence positive sur le référencement par les moteurs de
recherche

29
s'il apporte une valeur ajoutée significative à la compréhension d’un message, d’un service ou
d’un produit. Les sites entièrement réalisés en Flash sont à bannir dans la majorité des cas33.
Enfin, les fonctionnalités interactives donnent aux internautes le sentiment de conserver la main
mise dans la consultation du site Internet.
L'apport d'informations personnalisées entretient le rapport avec l'internaute. Il doit
absolument se dérouler dans un contexte ou sur une période clairement définis. L'email et la
newsletter sont en effet d'excellents outils de promotion, mais leur image a été ternie par les abus
du spam. Par exemple, un internaute est intéressé par recevoir des promotions sur certaines
destinations particulières durant la préparation d'un voyage. Une fois sa décision entérinée, il se
sent agressé par ces offres. D'où l'idée de proposer une newsletter sur une période clairement
déterminée dans le temps et validée selon le mode de l'opt-in : l’internaute exprime de manière
délibérée et consc iente son souhait de recevoir une newsletter et ne doit pas être trompé par des
cases cochées d'avance au sein d’un formulaire d’inscription.
Dernier domaine majeur des
attentes de l'internaute : le
développement du sentiment
communautaire. En rendant la
technologie accessible aux
néophytes, Internet a favorisé
l'apparition de communautés ou de
groupes socia ux virtuels liés par
l'usage d'un produit (ou d'un service)
ou le partage de valeurs réciproques.
Un site Internet doit devenir un
espace d'expression que l’internaute
peut s’approprier selon ses besoins :
utilisateurs d'un produit, réseaux professionnels de networking, communautés d’intérêt commun.
Grâce à ces moyens d'expression, l’internaute s’impose comme un acteur du site Internet, et non
plus un simple spectateur 34. Cela explique notamment l’ampleur du phénomène des blogs. Tout
développement du sentiment communautaire conforme aux attentes des internautes incite les
visiteurs à mettre le site Internet dans leurs favoris et à en parler autour d'eux. Ce fort impact sur
le bouche à oreille devient un outil supplémentaire pour générer du trafic gratuitement en invitant
les internautes à devenir les meilleurs porte-paroles du site Internet.
33 Le full flash est à réserver pour les sites à courte durée de vie n'ayant pas vocation à être référencé par les moteurs
de recherche. Exemple : les sites de jeux événementiels, dont la notoriété se propagent dans la communauté
internaute par le bouche à oreille.
34 On estime communément que 80 à 90% des contenus d’Internet sont réalisés par des particuliers.

30
2. Le référencement naturel, une solution durable et performante
a. Gains et intérêts du référencement naturel
Le référencement naturel représente, selon les sites, entre 20% et 40% du trafic global
d’un site Internet ! Le trafic généré à travers les résultats naturels des moteurs est gratuit. Il
permet de toucher directement les internautes lors d’une recherche d’information sur Internet, et
donc des personnes qui ne seraient pas venues d'emblée sur le site d'une entreprise ou d'une
institution.
Le référencement naturel est un outil de recrutement de prospects qualifiés, qui fonctionne
7 jours sur 7 et 24h sur 24h, tout au long du cycle de vie d'un site Internet. Il redonne le pouvoir
du référencement à l'éditeur de site Internet. En effet, celui-ci n'est pas dépendant d'une solution
payante comme l’achat de mots clés à travers les liens sponsorisés. La visibilité obtenue grâce à
ce type de référencement payant dépend directement du budget engagé et s’arrête immédiatement
dès la fin de la campagne. A l’opposé de la démarche naturelle, le spamdexing, quant à lui, rend
l'éditeur de site Internet otage du référenceur. Les noms de domaines ou pages satellites
spécialement créés appartiennent aux agences de référencement. Si cette prestation est
interrompue, le trafic qu'elle génère est automatiquement coupé35. Le référencement d'un site
Internet doit appartenir au client, et non pas à l'agence de référencement. C'est le cas de la
démarche de référencement naturel abordée dans ce livre blanc , qui vise à un transfert de
compétences restant pour toujours acquises au client.
Intégré en amont de la conception d'un site Internet, le référencement naturel réduit les
coûts d'élaboration en les mutualisant avec le budget du développement du site. Le gain n'est pas
uniquement financier. Le site Internet est directement opérationnel tout en bénéficiant d'un temps
de conception réduit. En outre, son contenu est réalisé en cohérence avec sa cible , à travers une
stratégie d’expressions clés appliquée dès l'origine du projet. Le référencement naturel oriente les
décisions au niveau des choix éditoriaux du site Internet, lesquels sont destinés à satisfaire les
visiteurs, et non le propre plaisir des concepteurs ou des décisionnaires du projet Internet. Il
génère un trafic ciblé qui, une fois amorcé, dure tout au long de la vie d'un site Internet. Il offre
surtout des coûts d'acquisition au clic les plus bas du marché et qui décroissent au fil du temps.
Enfin, et comme pour toutes les actions de promotion sur Internet, l'efficacité et le retour
sur investissement du référencement naturel est aisément quantifiable via des outils de mesure
d’audience tel que XiTi. Aucune place n'est laissée au hasard dans le référencement naturel, qui
étudie aussi bien les expressions clés tapées pour trouver une information ou le fonctionnement
des moteurs de recherche, que les origines du trafic d'un site et le comportement des internautes
lors des visites.
35 Certaines agences réalisent des pages satellites qu’elles ne retirent pas en fin de prestation.

31
FOCUS : En octobre 2005, lors d'une étude réalisée sur un échantillon de 400 sites Internet, XiTi
a constaté une progression régulière et forte du poids des moteurs de recherche dans le trafic
naturel, comme le montre les résultats suivants :
Part des modes d'accès naturels aux sites Internet Janvier 2004 Octobre 2005
Accès direct 62% 57%
Liens 19% 18%
Moteurs de recherche 19% 25%
Sur les sites d'e-commerce, 7 visites sur 10 via les moteurs de recherche proviennent des résultats
naturels, les 3 autres étant activées par le référencement payant. Si les liens sponsorisés ont été
adoptés par les annonceurs et les internautes, la logique d'optimisation du référencement naturel
reste privilégiée par les sites marchands, qui ne sont pas dans ce cas systématiquement obligés de
payer pour être référencé :
Pour les 10 premiers mois, part du… Outils de recherche Liens sponsorisés
Tous secteurs confondus 39,9% 60,1%
E-commerce 28,3% 71,7%
Tourisme 44,7% 55,3%
Finance 33% 67%
Enfin, toujours selon cette étude de XiTi, les visites effectuées via les résultats naturels sont
moins fugitives que celles réalisées par les liens sponsorisés, tant au niveau de la durée qu'au
nombre de pages vues.

32
b. Inconvénients du référencement naturel
On relève trois inconvénients majeurs pour le référencement naturel, pas nécessairement
incontournables.
Le référencement na turel ne produit pas de résultats immédiats. Tout site nouveau peut
attendre plusieurs mois avant que son contenu ne commence à être aspiré par les robots des
moteurs de recherche. La fréquence de rafraîchissement des moteurs de recherche reste propre à
chaque outil et demeure fonction de sa charge de travail et de sa file d’attente. Il faut cependant
noter que les délais de prise en compte d'un nouveau site Internet ont diminué. Les célèbres
GoogleTM Dance n'existent plus comme auparavant. GoogleTM est désormais entré dans une
logique de référencement en continu. En outre, il existe aussi des solutions en matière de
référencement naturel pour favoriser la prise en compte de nouveaux contenus, même en cas de
changement de noms de domaine. Le référencement payant peut également compenser cet
éventuel manque de trafic ciblé au démarrage ou au lancement de la nouvelle version d'un site en
attendant que le trafic naturel vienne prendre le relais. Un travail sur le rafraîchissement régulier
des contenus et un travail sur la popularité d'un site Internet permettent de réduire ces délais et de
favoriser une indexation plus rapide du site.
Le référencement naturel possède une influence moindre sur les mots clés très génériques
appartenant à des secteurs d'activités extrêmement concurrentiels (tourisme, immobilier, etc.).
Pour être en mesure de générer du trafic naturel sur des expressions génériques, le site doit
justifier d’une légitimité importante, récompensée par une popularité importante dans le secteur
visé. Dans tous les cas, la règle est de se focaliser sur les mots clés ciblés décrivant l’activité du
site le plus précisément possible, car plus ils sont ciblés, plus ils transforment la visite en achat ou
contact. Un positionnement sur des termes génériques dema nde plus d’effort, plus de travail, pour
des transformations plus faibles, comme déjà indiqué précédemment.
Enfin, le référencement naturel impose des contraintes de réalisation, dans le choix des
technologies et la méthode de développement. Si le choix des mots-clés conditionne la réussite
commerciale d’un site Internet, c’est bien la structure technique du site Internet qui détermine son
positionnement dans les pages de résultats naturels. Toutes les technologies ne sont pas en effet
égales devant les moteurs de recherche. Le choix de la technologie ne doit pas être vécu comme
une fatalité, mais comme une opportunité pour se rapprocher des internautes. Il faut relativiser les
modifications nécessaires à un site déjà existant. Par exemple, les sites Internet développés en
ASP (langage Microsoft©) et PHP (langage libre) sont les plus faciles à optimiser avec le
référencement naturel, et la présentation originale des pages Web est respectée. En revanche, les
sites développés dans les (onéreuses) solutions Broadvision©, Vignette© et Lotus© compliquent la
mise en place d’un site engine ready.
Evidemment, les contraintes de réalisation sont réduites à leur plus simple expression si,
comme nous le préconisons, le référencement naturel est considéré en amont d'un projet Internet,
lors de sa conception ou de sa refonte.

33
3ème partie : Aller au-delà du référencement éthique et naturel, ou comment
rendre un business modèle attractif pour l'internaute
1. Une démarche de WebMarketing innovante : le permission marketing
Dans quelques années, avec l'évolution du réseau en matière d'usages, le référencement
naturel sera considéré comme l'ancêtre du permission marketing sur Internet.
Lorsque l'internaute est en recherche active d'information, et que l'on satisfait sa demande
en l'entraînant vers un site commercial ou institutionnel via les moteurs de recherche, cette action
n'est pas sub ie comme une forme d'intrusion ou de publicité non sollicitée. Sur le principe, le
référencement naturel requiert de la part de l'internaute - un consommateur potentiel -
l'autorisation de le mettre en relation avec une marque capable de satisfaire son désir du moment.
Cela caractérise le permission marketing, dont le rôle est d'adapter l'offre à la demande avec le
consentement actif de l'internaute. Le net linking, l'affiliation et la bannière publicitaire sont
d'autres moyens de recruter une audience ciblée sur le mode du permission marketing, puisque
l'internaute est libre de cliquer ou non sur un lien.
Comme l'a constaté à ses dépens une personnalité dominante dans le paysage politique
français, le permission marketing est la règle sur Internet. Dans le cadre d'une campagne d'emailing
organisée par son parti politique, cette personnalité a envoyé deux millions de messages
électroniques à des internautes dans le but d'attirer de nouveaux adhérents. Même si ce courrier
électronique n'était pas de nature commerciale, il a été ressenti comme du spam par la
communauté des internautes. Résultat : la campagne d'e- mailing a été rapidement suspendue et
cette personnalité se retrouve, par le jeu d'une popularité voulue par la communauté internaute,
associé au nom d'Iznogoud36 dans les résultats des pages de recherche dans Google TM.
Ce cas médiatique rappelle combien Internet a donné un pouvoir inédit au citoyen et au
consommateur. En matière de Webmarketing, l'entreprise s'adresse à un acteur-citoyen et un
consomm'acteur, qui peut compter sur le soutien actif d'une authentique communauté, comme l'a
montré dès avril 2001 une campagne contre une multinationale française dans le domaine de
l'alimentaire37.
Ce bouleversement empêche de transposer les règles traditionnelles du marketing sur
Internet.
D'une part, la nouvelle génération38 n'est plus sensible
au bombardement publicitaire actuel, représentant 4000
messages commerciaux par jour, soit un nombre de 350 000
de la naissance à l'âge de 18 ans. Cette agressivité visuelle, ce
harcèlement du marketing traditionnel n'est plus recevable par
des adolescents élevés aux valeurs véhiculées par les jeux
vidéo et Internet : partage, échange, instantanéité, gratuité39.
36 Celui qui voulait être calife à la place du calife…
37 http://www.voltairenet.org/article9599.html
38 Née avec l'ordinateur individuel. Aujourd'hui, un quart des 6-8 ans en France est déjà connecté à Internet !
39 Institut IPSOS (juin 2005) ; http://www.ipsos.fr/CanalIpsos/articles/1627.asp?rubId=1627

34
Ce dernier élément est même fondateur dans la mentalité des internautes. La gratuité, forte de son
succès dans la presse écrite seulement trois ans après son irruption dans le paysage français40,
doit inspirer l'état d'esprit du Webmarketing, lequel peut se résumer de cette façon : « je vous
offre quelque chose (l'information) et je me permets ensuite de vous proposer quelque chose à
acheter (la publicité) ». La publicité doit être à l'image de son ancêtre, le premier bandeau
publicitaire apparu en octobre 1994 sur le site Internet du magazine de référence de la
cyberculture Hotwired41 : interactive, ludique, bien intégrée au contenu, permettant d'étudier les
attentes de l'internaute… sans être source de mécontentement de sa part.
Par exemple, les capacités du rich média 42 correspondent bien aux aspirations légitimes
des internautes tout en offrant des solutions de traçabilité et d'étude comportementale
intéressantes aux entreprises.
D'autre part, les marketeurs ont suggéré jusqu'à présent d'envoyer des messages (offres,
services) sans demander leur avis aux gens, à l'exemple du support papier, qui représente
actuellement 40 kilos de prospectus par an et par foyer en France. Différence essentielle avec la
pollution des boîtes de courrier électronique : le spam arrive directement chez vous, tandis que le
prospectus arrive dans la boîte aux lettres, sans entrer dans notre domicile, sauf si on le désire.
Les annonceurs commencent seulement à réaliser qu'un trop grand comportement intrusif dans le
parcours des internautes a un effet néfaste sur leur publicité, alors que le spam a déjà provoqué
une profonde exaspération dans la population internaute. A tel point que l'e-mailing (application
sur Internet du prospec tus) et la newsletter, qui sont pourtant d'excellents outils de promotion,
sont aujourd'hui délaissés. L'efficacité de l'e- mailing devient même enrayée par la technologie.
Selon une étude de Return Path43, 1 courrier électronique sur 5 envoyé dans le cadre de
campagnes de marketing serait bloqué par les fournisseurs d'accès à Internet et les services de
webmail, car assimilé à du spam. Les taux de refus varient de 1 à 54% des courriels selon les
campagnes et de 8 à 39% selon les fournisseurs d'accès et les webmails.
La solution réside dans le permission marketing, qui avance à l'encontre du marketing
traditionnel. Cette démarche représente l'avenir de la publicité sur Internet face à une
communauté rôdée aux discours commerciaux idéalisant une marque. L'idée est de transformer le
consommateur en acteur de la publicité.
Certes, si l'on demande l'autorisation à son prospect avant de le contacter, sur la manière
de le contacter comme sur le type de produits à lui envoyer, le contact est plus long et délicat à
établir. Il bénéficiera en revanche d'une meilleure solidité dans le temps. De plus, ce contact sera
facile à établir pour les entreprises qui se lanceront les premières sur les terrains du permission
marketing. Celles-ci prendront un avantage décisif sur leurs concurrentes et bénéficieront, comme
GoogleTM, EbayTM et AmazonTM de la prime à la primauté récurrente sur Internet : la première
entreprise pertinente sur son secteur sur Internet prend un ascendant considérable sur les autres.
En outre, pour l'internaute, il n'est plus possible de faire machine arrière lorsque celui-ci a goûté à
la puissance d'une relation basée sur la confiance, l'accord et l'autorisation.
40 90% des lecteurs de presse écrite lisent des journaux gratuits
41 Pour le géant de télécommunications AT&T. A l'époque, le bandeau publicitaire était énigmatique.
42 Contenus multimédias (vidéo, son, animation) parfois accompagnés d'effets spéciaux
43 Une société spécialisée dans l'e-marketing. Etude datée d'octobre 2005 : http://www.returnpath.net

35
La publicité sur Internet est promise à un bel avenir. Elle représente déjà 5% des budgets
investis par les annonceurs, tous médias confondus, au premier semestre 200544 et concerne 900
entreprises. Ce marché devrait doubler au niveau mondial d'ici 2010 pour atteindre 19 milliards
de dollars. Il reflète l'intérêt des gens pour le média Internet, auq uel les internautes en France
consacrent près de 4 heures supplémentaires par mois par rapport à l'année dernière, et auquel 9
millions de foyers étaient connectés au troisième trimestre 2005.
Pour toucher le consomm'acteur, c'est-à-dire pour transformer le consommateur en acteur
de la relation avec l’entreprise, il faut d'abord s'appliquer à bien utiliser les nouveaux outils
interactifs du média Internet et à développer les usages communautaires.
2. Etre en adéquation avec les nouveaux usages communautaires : Blogs, Wikis,
Forums, Fils RSS et référencement naturel ?
Les nouveaux outils communautaires possèdent des intérêts convergents avec le
référencement naturel.
Moyen de collecter les informations se rapportant à un thème particulier, le fil RSS génère
une audience fidèle. Les Foires aux Questions, alimentées par la curiosité des internautes, sont
également prisées et soulagent le travail d'une entreprise en interne. Quant aux Forums et aux
Wikis45, ils donnent la main - plus que la parole - aux internautes et les laissent s'approprier une
marque.
Dans cette volonté de construire une
marque avec le concours des internautes, le
Blog figure en pôle-position des outils
interactifs à mettre en place. Le carnet de
notes personnelles connaît une forte
expansion dans l'univers Internet : 80 000
nouveaux blogs sont créés chaque jour,
13% d'entre eux sont actualisés chaque
semaine, on a franchi la barre symbolique
des 20 millions de blogs le 23 octobre
200546. Selon une étude publiée fin octobre
2005 par le centre de recherche Trade paper
AdAge.com, les employés américains
auront consacré l'équivalent de 551000 années de lecture aux blogs en 2005. Un salarié sur quatre
passe environ un dixième de son temps de travail à consulter Blogs, chroniques ou journaux
intimes sur Internet, sans que ce loisir soit nécessairement considéré comme une perte de temps
pour l'entreprise selon certains experts47. La prospérité des Blogs a engendré sa version spam : le
44 Et même 9% pour les annonceurs déjà présents en 2004 (Rapport TNS/IAB France)
45 Encyclopédies réalisées de manière collective
46 http://www.technorati.com/weblog/2005/10/54.html
47 http://www.linternaute.com/actualite/depeche/28/106335/
des_millions_d_americains_passent_des_heures_a_lire_des_blogs_au_travail.shtml

36
sblog. En octobre, 5% des nouveaux blogs créés étaient l'oeuvre de spammeurs 48 et l'on
dénombrait 50 000 commentaires quotidiens (sur 1,3 millions) laissés automatiquement par des
robots. Nul doute que la réplique des principaux moteurs de recherche, qui ont développé durant
l'été 2005 des services dédiés aux Blogs 49, ne saurait tarder pour enrayer cette dérive.
Pour une entreprise française, mettre à profit la
plume d'un bloggeur se révèle encore un exercice
périlleux, lorsque l'on sait combien il sait capter l’écoute,
comme pour railler la vie interne d'une entreprise50. Seule
une dizaine de sociétés françaises a tenté l'expérience
depuis le début de l'année 2005, alors que la plupart des
grandes entreprises américaines se sont lancées dans cette
voie et récoltent déjà des bénéfices en termes d'images et
de relation avec les clients. L'exemple d'une marque
française notoire de cosmétique est caractéristique. Son blog, le Journal de ma peau, était réalisé
par une chef de produit de la marque sans que ce « détail » soit précisé. Pis, les commentaires
étaient triés. Ces pratiques ont été rapidement comprises et condamnées par la communauté
internaute. Après un mea culpa 51 et l'adoption des règles de la blogosphère, ce blog fédère
désormais un quart du trafic des sites Internet de cette marque de cosmétique.
La production de contenus, blogs, forums et wikis améliore la richesse sémantique du
référencement naturel, en plus d'accélérer le rafraîchissement de pages Web. Comme les outils
communautaires, les fils RSS favorisent le développement de la popularité (notoriété) d'un site
Internet, et donc l’amélioration de son positionnement dans les moteurs via l’augmentation des
liens possibles à travers la communauté des utilisateurs.
Quelles sont ces fameuses règles - juridiques, choix et présentation du bloggeur, ligne
éditoriale, technique rédactionnelle, contenus en fonction de l'identité du client, méthode d'études
de comportement - pour utiliser cet outil de communication direct et spontané aussi bien en
faveur de la marque que de l'internaute ? Comment utiliser en ligne les nouveaux outils interactifs
pour répondre aux quatre piliers fondateurs du média Internet : « partage, échange, instantanéité,
gratuité » ? Comment développer le permission marketing dans l'art de créer du trafic ciblé ?
Comment préparer la version 2 du Web ? Ces réponses seront données au début de l'année 2006
dans le prochain livre blanc de notre agence, 1ère Position, dont la force reste de savoir proposer
une stratégie marketing sur Internet authentique et en avance sur son temps.