Au cœur des machines, s’expriment les humains
L’évolution des technologies s’oriente vers une simplification telle qu’il n’est sans doute pas opportun d’expliquer ici en détail, le fonctionnement de ces plates-formes qui sont d’ailleurs l’objet d’un continuel renouvellement. Mais dire ce qu’elles permettent comme usage, ça oui ! Et décrire cette tendance que l’on nomme « web 2. » comme si le réseau était devenu lui-même une fonction logicielle de seconde génération… voilà bien notre propos. Car il en va de notre nouveau statut d’internaute au sein d’un réseau que l’on dit de plus en plus « social » plutôt que « technologique ».
Cela fait maintenant quelques années que le grand public s’intéresse à l’émergence du web. A ses débuts, il s’agissait principalement de surfer sur une vague, pour découvrir des contenus mis en ligne après avoir été publiés sur des supports traditionnels. Au delà de la facilité d’accès, la consultation de l’internaute gagnait en interactivité. Bien sûr, le bénéfice était fonction de la bande passante que l’on s’octroyait et des fonctions logicielles dont on faisait l’acquisition pour exploiter ces contenus. L’internaute était essentiellement consultant. On se posait la question, à l’époque, de connaître le temps qui serait nécessaire pour encoder toutes les informations qui existaient et qui devraient impérativement migrer sur la toile.Toutefois, la curiosité prit le dessus. De consommateur, le surfeur s’est pris au jeu de la création. Combien de pages perso ont alors été créées. Certes, l’intérêt cognitif n’était pas toujours au rendez-vous… ces contributions correspondant finalement plus à des conversations de comptoirs, chacun y allant de son sujet préféré… sans pour autant jouir d’une véritable expertise en la matière.
Cette prise en main de l’espace disponible par l’utilisateur lambda a engendré une suspicion assez généralisée concernant la fiabilité des infos circulant sur le net. Si tout le monde peut se targuer d’un véritable statut d’auteur, sans qu’un comité de lecture et que des validations officielles ne viennent estampiller les contenus, où allait-on ? Or, à l’époque, les outils de publication réclamaient encore de la part de leurs utilisateurs un savoir-faire qui ne s’improvisait pas ! Les programmes de formation auxquels les candidats s’inscrivaient duraient plusieurs jours et les concepts étaient relativement techniques. Certes, le WYSIWYG dispensait du recours à un langage de programmation… mais pour les fonctions plus spécifiques, il s’agissait tout de même de modifier le code que le logiciel produisait de façon trop standardisée. Or, avec l’évolution technologique, le processus de mise en ligne s’est fortement simplifié. Recourant à l’usage de bases de données et à la confection de modèles de mise en page , les hébergeurs de sites actuels proposent aux internautes de ne plus s’intéresser qu’au contenu. Le web, anciennement fournisseur de contenus, s’oriente dans sa version 2.0, vers la fourniture en ligne de services de mutualisation, mettant désormais le focus sur le partage des ressources personnelles et la validation de celles-ci au sein d’un réseau collaboratif appelé aussi « réseau social ». Les « Blogs » sont le premier modèle a avoir connu un vaste succès. Mais le phénomène ne s’est pas arrêté là. Le partage s’est intéressé aux « Favoris », ces bonnes adresses que vous pointez dans un dossier qui, à l’origine vous était personnel et stocké au sein de votre navigateur. Désormais, vous êtes invités à partager vos coups de cœur (sur Del.icio.us, par exemple). C’est votre expertise qui valide ainsi la sélection que vous opérez… de sorte qu’il devient intéressant non plus seulement de solliciter les moteurs de recherche qui vous livrent leurs résultats dans un ordre dont les critères de classement vous échappent et ne sont pas exempts de priorités chèrement acquises par des annonceurs..., mais aussi de questionner les préférences de telle ou telle personne que vous estimez experte sur le sujet qui vous occupe, de sorte à pointer des ressources ayant reçu une approbation fondée.
Autre base de données à s’être largement développée dans la communauté des usagers du Web 2.0 : les « Tags ». Pour vous faire une idée du concept, rendez-vous sur le serveur Technorati. En effet, les moteurs de recherche qui vous fournissent leurs résultats ne font pas toujours la part des choses entre un mot clé qui est présent dans un texte, au détour d’une expression, ou ce même mot quand il est le centre même du sujet évoqué par le document. Ainsi, une requête sur « Jules Vernes » rapatriera-t-elle un document qui parlerait de la fission nucléaire, sous prétexte que dans un paragraphe sur les dangers de l’opération, on y trouve une phrase qui dirait : « Pas question de traiter cela avec insouciance, on n’est pas dans un roman de Jules Vernes ». Le simple fait que le terme « Jules Vernes » figure, justifie le rapatriement. L’usage et le partage des tags permet à l’auteur d’un texte de décider lui-même des mots-clés qui sont pertinents pour que son texte soit localisé par les moteurs. Certes, la chose était déjà possible par l’emploi des metatags dans la conception de pages en html, mais la procédure renvoyait à la connaissance du langage de programmation. Ici, le service est automatisé dans une interface grand public.
Finalement, ce à quoi l’on assiste, c’est une migration du stockage des données de sa machine personnelle, vers des espaces de stockage et de partage en ligne. Ce qui a donné son plein déploiement à cette tendance, c’est l’hébergement des photos (le premier serveur à avoir lancé le mouvement est Flick’r ) et surtout celui des vidéos (deux pointures de ce type de services sont Youtube et Dailymotion). Plus rien ne semble intime, puisque tout s’expose et se partage au vu et au su de tous. Ce qui régule cette transgression de la vie privée, c’est la masse des infos ainsi publiée… Qui est intéressé et prendra le temps de visionner vos photos de vacances familiales mises en ligne ? Par contre, si les balises d’identification ou les légendes de vos clichés contiennent des mots qui renvoient, par exemple à des sites, à des monuments… alors, par la recherche de mot clés, les internautes trouveront-ils intéressant l’une ou l’autre de vos épreuves, d’autant que le principe de partage prévoit que vous cédiez les droits d’utilisation de vos œuvres. Le succès de tous ces sites gratuits vient de la mutualisation des contenus validés par les utilisateurs eux-mêmes. Internet a démarré comme une grande bibliothèque aux œuvres estampillées par les comités de lecture des éditeurs… et elle devient progressivement une vaste mémoire collective validée par les utilisateurs eux-mêmes. L’exemple par excellence de cette tendance, c’est « Wikipédia ». Tous les articles de ce vaste corpus sont écrits par des bénévoles et l’authentification du contenu est organisé selon le principe de la vigilance citoyenne. Chaque article dispose d’une page de discussion de sorte à obtenir une information suffisamment satisfaisante avant approbation. Durant cette période de gestation, l’article est déclaré « à l’ébauche ». A tout moment, une modification peut être apportée. Certes, le processus n’écarte pas totalement les impostures ou les malversations, mais on attend de la vigilance citoyenne qu’elle ait le dernier mot.
Contenu textes, contenu images, contenus experts (favoris, tags, …) le web 2.0 s’étoffe. A tel point que même les parcours professionnels et les réseaux de relations auxquels vous appartenez deviennent des infos pouvant garantir votre expertise. D’où l’émergence de plates-formes comme Linked’in (votre CV, vos relations, votre réseau expert…) mais aussi MySpace (votre identité, vos productions –notamment musicales- vos amis, votre agenda…) ou Yahoo!360 Degrés (vous… sous toutes les coutures).
Certes, toutes ces infos participent-elles à la constitution de votre portrait virtuel, accessible au mode asynchrone. Mais la technologie a poussé plus loin la possibilité de vous toucher (y compris en mode synchrone, donc). C’est l’explosion des plates-formes de dialogue en ligne et de téléphonie par internet qui l’ont rendu possible. Messenger de Microsoft ou de Yahoo permettent le dialogue en temps réel, via le clavier, au prix (forfaitaire) de votre connexion, ainsi que l’échange de fichiers. Bonus pour la visiophonie quand votre machine est équipée de micro/caméra. Les férus de cette technologie laissent la connexion non seulement ouverte toute la journée, mais le logiciel chargé, de sorte qu’ils apparaissent comme joignables dans la liste des correspondants auprès desquels ils sont référencés. Skype, système de téléphonie, autorise la jonction d’internet avec la téléphonie classique, de sorte que de votre ordi, vous puissiez joindre tout qui vous voulez, sur ordi ou téléphone classique… fixe ou portable !
Car la dernière venue, c’est cette convergence des médias de bureau avec les consoles mobiles. Internet dans sa poche, partout, à la ville et à la campagne. Il était assez logique, dès lors, que la boucle se referme en tirant profit de la localisation des consoles en déplacement. Si la téléphonie mobile réclamait le développement de réseau aériens de localisation des utilisateurs en déplacement, il n’y avait qu’un pas à faire pour permettre en retour que cette localisation faite de l’utilisateur le guide par rapport à la destination finale où il se rend. La technologie GSM boucle ainsi la boucle, mais celle-ci est loin de se refermer car qui pourra augurer de ce qui se prépare dans les laboratoires de recherche et développement technologique ? Secret industriel… certes, mais qui exploite un filon bien identifié : la nanotechnologie.