Si les développements technologiques des
grands opérateurs de la recherche en ligne s’orientent dans un sens plus
participatif, c’est parce que tout l’internet a été modifié du fait de
l’émergence des réseaux sociaux. Il est déjà loin le concept de « grand
bibliothèque virtuelle », déclassé par le bien plus récent « web social
», le bien nommé 2.0. Et cette évolution ne pouvait manquer de produire
ses effets sur les principes de la recherche en ligne et donc sur la
nature même des outils développés pour la mettre en œuvre.
Pendant tout un temps, la méthodologie de recherche en ligne
s’est faite avec des outils de localisation de l’info. Il y a eu les
annuaires fonctionnant sur les principes des index ou thésaurus. Leur
mode de classement se basait sur des rubriques thématiques qu’une table
des matières générale déclinait en catégories et sous-catégories. Il
fallait donc déjà bien connaître ce que l’on cherchait pour le
pré-localiser avec précision dans la rubrique où on avait des chances de
le trouver. Un exemple à partir de l’annuaire de Yahoo [1] ?
Je cherche un texte, celui de « La création du monde en 7 jours ».
C’est dans la rubrique « Société et culture » qu’il me faut commencer de
cliquer. C’est là que se trouve la catégorie « Religion et
spiritualité ». Mais dès cet instant, je suis confronté à un choix qui
n’est pas simple : vais-je choisir « Textes » ou « Création versus
évolution », ou encore « Bibliographies » ou « Sciences et religion ».
Aucun de ces choix n’est insensé… mais tous ne mènent pas au même fond
documentaire. Vais-je travailler par essai et erreur ? En tout cas, si
j’ignorais complètement de quoi il s’agit quand on parle du texte de
« La création en 7 jours », je serais dans la plus complète indécision.
Des annuaires aux moteurs
Heureusement, les années annuaires ont rapidement cédé la place à
celles des moteurs de recherche. Plus besoin d’une connaissance
préalable de ce que je cherche, à la seule condition toutefois de
pouvoir énoncer l’objet de ma requête à travers des mots-clés
judicieusement choisis. Cet exercice n’est pas simple en soi non plus !
Mais il supprime l’embarras décrit ci-avant dans l’usage des annuaires.
Il y a pourtant un inconvénient majeur qui apparaît : là où l’annuaire
ne me donnait que les résultats de la sous-catégorie spécifiquement liée
à l’objet de ma recherche, je suis maintenant en présence de milliers,
voire de millions d’occurrences du mot-clé demandé… Des occurrences qui
peuvent également provenir de catégories thématiques sans aucun lien
avec ma préoccupation. Ainsi, le mot « création » et le mot « bible »
que je peux lui adjoindre, me rapportent-ils 64.800.000 résultats. Il va
dès lors me falloir connaître une syntaxe spécifique qui précise mieux
l’énoncé de ma recherche et qui limite le nombre de résultats rapatriés.
« Création du monde en 7 jours » ramène 458 occurrences. En effet,
l’usage des guillemets crée le concept composé des mots-clés se suivant
dans cet ordre précis, avec cette orthographe précise. Ceci explique que
« Création du monde en sept jours » qui remplace le chiffre « 7 » par
le terme « sept » rapporte 372 occurrences sans lien direct avec les 458
précédentes, alors qu’on y traite sans doute de ma préoccupation ! Un
bon usage de la syntaxe de recherche, cela s’apprend. C’est une
compétence multimédia indispensable aujourd’hui. Mais elle est d’ordre
instrumental… un savoir « comment faire ». La recherche n’en est pas
pour autant terminée, car il va encore falloir opérer une discrimination
qualitative sur l’ensemble des résultats rapatriés. Or, ce serait
naïveté de croire que les résultats sont présentés dans un ordre de
priorité qui corresponde à vos intérêts : les meilleurs sites en haut de
la liste. Qu’est-ce d’ailleurs qu’un « bon site » ?
Ranking
Les critères de classement des résultats d’une requête sont le fruit
d’un algorithme complexe qui relève du véritable secret-défense des
opérateurs. Google par exemple, donnait encore il y a peu, quelques
explications sur ses principes d’indexation. Mais pas question de livrer
la recette précise qui vous permettrait de placer votre site en tête [2].
Ce positionnement, Google se le réserve jalousement. Cela lui
permet d’abord de vendre un positionnement garanti par le biais des
« Adwords ». Votre site apparaît alors en haut de la liste, dans un
espace réservé aux référencements commerciaux. Mais cet algorithme connu
d’eux seuls permet aussi à l’opérateur de privilégier qui il veut selon
sa ligne éditoriale [3]
de même que de sanctionner ceux qui lui semblent devoir l’être. La
chose est connue publiquement avec l’exemple récent des journaux
francophones belges qui n’ont plus été référencés du tout dans les pages
de Google, le temps d’un we [4],
en représailles d’un jugement qui a été prononcé à la défaveur du géant
américain à qui la presse belge reprochait de publier in extenso
certains de ses articles dans la rubrique « Google Actu » sans payer les
droits liés à cette publication. La réaction a été radicale :
suppression pure et simple de toute mention desdits journaux dans la
base de données de Google, ce qui privait du même coup (du même coût,
devrait-on dire) les journaux d’une partie de leur lectorat (estimée à
20 % au moins) … et de leur accroche publicitaire, par le fait même [5]
Mais on l’aura compris, la question du positionnement des sites dans les
pages de résultats n’intéresse pas que les éditeurs en ligne… Vous et
moi, l’internaute lambda qui cherche l’info veut aussi connaître les
critères de classement des résultats, histoire de savoir ceux qu’il va
consulter et ceux qu’il va écarter. Et là, c’est le flou absolu… Enfin
pas totalement car, à côté du positionnement payant (Adwords), on sait
que la popularité d’un site influence le positionnement. Autrement dit,
plus un site est choisi dans la liste des résultats (plus on clique sur
le lien pointant vers lui), plus ce site sera mieux positionné à
l’avenir. Ceci n’est pas sans effet pervers… car si l’on pouvait
s’attendre à ce que cette discrimination positive écrème progressivement
les « meilleurs » sites en les faisant remonter en tête de liste, il ne
faut pas perdre de vue que ce plébiscite ne s’exerce que parmi les
sites déjà positionnés très haut… sur les quelques premières pages. Qui
en effet consulte les résultats au delà des 3, 4 premières pages ?
Notoriété
Un autre élément connu joue aussi dans le positionnement : la
notoriété du site, c’est-à-dire le nombre de liens existant dans
d’autres sites internet et pointant vers le site à positionner. C’est
avec la mise en œuvre de pareil critère que l’on s’aperçoit qu’un
algorithme froidement mathématique peut malgré tout donner place à une
analyse qualitative. On prend en effet en compte (et c’est facile de
compter pour un ordinateur qui est une grosse calculette) un nombre :
celui des webmasters qui ont choisi de promotionner un site partenaire
en plaçant un hyperlien dans leurs pages. C’est un vrai plébiscite,
celui-là… sous réserve qu’il ne relève pas d’un simple échange mutuel ou
d’un service facturé, ce qui dénigrerait alors la valeur réelle du
positionnement.
Tout ce petit monde de la recherche en ligne s’est alors demandé comment
faire entrer plus de qualitatif dans le processus de classement… Du
qualitatif qui, de plus, réponde aux critères de recherche spécifiques
de l’internaute lambda et non à ceux de son voisin. Et c’est alors que
les réseaux sociaux ont révélé leur puissance.
Qualitatif vs pensée uni-formatée
Le principe d’un réseau social est de mettre en relation des gens qui
se choisissent sur base d’affinités personnelles. Il y a des réseaux
généralistes rassemblant en ligne des gens qui se connaissent déjà dans
la vie de tous les jours. Le but est de continuer les relations de
sympathie entamées « in real life ». Il y a des réseaux sociaux qui
réunissent des internautes du même secteur professionnel. D’autres
encore sont plus thématiques. On y retrouve les amateurs d’un genre
musical, d’une préférence gastronomique, d’un sport spécifique, les
spécialistes d’une question scientifique, les adeptes d’un courant
politique ou philosophique… Ce qui est qualitatif dans la constitution
de ces réseaux, c’est la liberté d’accepter ou non les mises en contact
et la gestion de celles-ci en listes spécifiques. Cela permet, au sein
d’une même communauté, de n’avoir de relation qu’avec ceux que l’on
choisit d’élire en contact personnel. On est tous membres du même réseau
où se débat un sujet qui nous rassemble. On bénéficie chacun de ce qui
est collectif mais, quand on le souhaite, on partage en aparté,
uniquement avec ses contacts privilégiés, ce que l’on estime plus
confidentiel. Cela réclame une connaissance des réglages des niveaux de
confidentialité prévus par l’interface, mais cela garantit que l’on
n’est alors qu’en présence de « gens qui pensent comme nous ». Mieux, si
l’on est ouvert à cette idée, on peut élargir le cercle de ses
connaissances par le principe central des réseaux sociaux : « les amis
de mes amis sont mes amis ».
Si l’on croise cette technologie des réseaux sociaux avec les principes
des moteurs de recherche qui classent des résultats correspondant à des
attentes d’internautes… on voit l’intérêt. Il s’agit de faire prendre en
charge l’aspect qualitatif du référencement par le réseau social des
gens qui pensent comme vous. Cela a donc été un challenge pour les
opérateurs de la recherche en ligne d’amener la clientèle à s’inscrire
dans une session d’utilisateur (avec profil, login et mot de passe) et à
ensuite faire accepter de ponter le carnet de contacts d’un de ses
réseaux sociaux avec le système. Condition préalable nécessaire pour
faire apparaître ensuite dans les pages de résultats d’une recherche des
sites que certains de vos contacts ont plébiscités dans vos réseaux
sociaux ou sur leur blog, par exemple. A vous alors, de valider ou non
cette discrimination positive suggérée par vos proches en accordant de
l’attention aux sites recommandés par vos « amis ».
« Aimez-vous » les uns les autres
Cette tendance à la transparence des relations sur le net étant
de plus en plus dans l’air du temps suite à la multiplication des
services en ligne, le phénomène de la recherche sociale est occupé à se
généraliser. De leur côté, les développeurs de sites ont entamé la mise
en œuvre du plébiscite de leurs pages internet par simple clic. On voit à
l’heure actuelle fleurir de plus en plus des barres de boutons vous
permettant de dire de différentes manières et à destination de divers
réseaux sociaux, que « vous aimez » telle ou telle page d’un site. Tous
ces clics sont une nouvelle manière d’instrumenter le positionnement des
résultats d’une recherche. C’est en ce sens que l’on parle donc
maintenant d’une recherche en ligne qui se fait de plus en plus
« sociale » puisqu’elle est instrumentée par les contacts du réseau
auquel on appartient. C’est dire que le positionnement d’un site n’est
plus le même pour chaque internaute… mettant ainsi en œuvre le fait
qu’un site n’est pas non plus intéressant de la même façon pour tel ou
tel internaute. Encore faut-il alors se construire un réseau social
fiable, concernant les requêtes que l’on veut mettre en œuvre. Autrement
dit, si je décide dans le cadre d’une recherche, de me mettre à l’école
de tel ou tel, autant bien choisir ses condisciples de classe et le
professeur à qui l’on accordera momentanément le crédit de piloter la
réflexion. En effet, si c’est à d’autres que je délègue pour partie le
droit d’orienter mes propres recherches, autant le faire avec des
personnes qui méritent ma confiance, des personnes à qui je reconnais
une expertise suffisante sur les sujets qui me mobilisent, au point de
me rallier à leur avis.
Michel Berhin
Août 2011.
[1]
Celui de Yahoo n’existe plus qu’en anglais… et pour combien de temps.
Je découvre aujourd’hui que Google vient de supprimer définitivement le
sien.
[2] Ce que tentent pourtant de faire toutes les sociétés de SEO (Search Engine Optimisation) pour leur clientèle.
[3]
Notons ainsi le toujours bon placement de wikipédia… au moins dans les
10 premiers, pour le mot clé demandé. Exemple : pour le mot « Média »,
média dans wikipédia est premier site classé.
[4] http://archives.lesoir.be/google-semble-relance-les-hostilites-contre-les_t-20110715-01H2GL.htm
[5] Les acteurs se devant de sauvegarder leurs intérêts, un accord a été très vite trouvé. Lire, entre autres : http://www.numerama.com/magazine/19355-google-reindexe-les-journaux-belges-suite-a-un-accord.html.