Overblog Suivre ce blog
Administration Créer mon blog
19 septembre 2011 1 19 /09 /septembre /2011 17:38

Industrie-reputation-copie-1.jpgLa gestion de la réputation s’industrialise… Et comme toute industrie qui se respecte, les offres deviennent de plus en plus similaires, se différenciant de moins en moins par leur mise en place que par leurs prix. Voyons tout d’abord le témoignage de Bernard, chef d’entreprise souhaitant acheter une prestation d’e-réputation. Puis quelques réflexions sur le développement de l’industrie de la réputation et de sa gestion.

 

 

 

 

 

 

Bernard est directeur d’une usine fabriquant des meubles en France. Forte de ses 160 salariés, son entreprise est présente sur tout le territoire, par le biais de grandes enseignes de l’ameublement et, depuis peu, par la vente en ligne directe de certains de ses produits (aspect encore marginal de son business).


Son business se dématérialise, mais pas encore assez pour mériter des réflexions profondes quant à sa stratégie web. Pourtant, il est conscient que la réputation de son entreprise, et de ses produits, est un facteur qui gagne en importance dans nos sociétés d’informations médiatisées. D’une culture basée sur « un bon produit est un produit qui plait » il est conscient que nous passons progressivement à « un bon produit est un produit que l’on connait et dont « on » dit du bien ».

Bernard a aussi conscience qu’avec le web (les blogs, Facebook et tous ces « autres trucs ») la réputation n’est plus le fait d’une bonne communication publicitaire, mais doit aussi prendre en considération les avis exprimés par les consommateurs, leur capacité à médiatiser des messages et des contenus au même niveau que les industries médiatiques traditionnelles. Si la réputation de ses produits sur le web n’est pas inquiétante (quelques avis négatifs contrebalancés par des positifs, une captation de l’image par ses distributeurs), il décide tout de même (pour la rentrée 2011) de mettre en place des actions significatives sur le web pour gérer sa e-réputation. De plus, il se dit que cela ne peut être que bon pour accroitre son business…


L’entreprise de Bernard possède déjà un service communication/marketing. Seulement il estime que ses collaborateurs sont « trop vieux » pour comprendre quelque chose au web « des jeunes » (dont ses enfants de 12 et 14 ans sont accrocs). Si le stagiaire qui a optimisé son site web a fait du très bon travail, il n’empêche qu’il se voit mal laisser la réputation de son entreprise aux mains d’un étudiant.

Pour toutes ces raisons, Bernard décide de passer par un prestataire. Et comme il l’a toujours fait pour d’autres prestations, il décide de chercher lui-même une agence. Et là commencent ses étonnements…

Bernard n’a pas de références sur le sujet. Il a rapidement rencontré Marc lors d’un congrès, mais celui-ci a décidé de ne pas s’investir sur le web au-delà d’une présence stratégique. Mais il lui conseil tout de même de regarder un blog où se trouve la liste de plus de 150 prestataires en e-réputation.


Bernard se base alors tout d’abord sur le nom des prestataires pour faire une présélection. Puis il regarde les prix… Et s’interroge : comment se fait-il que, pour des prestations qui semblent similaires, les prix varient autant ?

D’offres packagées à 50€ par mois, on peut très rapidement passer à des offres « sur devis ». Et par expérience, Bernard sait que le temps d’un consultant coûte cher. Il découvre même des prestations « offshore » réalisée par des malgaches ou des vietnamiens… Il se dit alors que la gestion de la réputation pose les mêmes problématiques que pour son usine : délocaliser pour gagner sur les coûts, ou rester en France pour viser la qualité ? Dans tous les cas, étant donné le rayonnement national de son entreprise, un « artisan » lui parait peu suffisant…

   
Il se dit alors que pour définir combien investir dans sa réputation, il est nécessaire de l’estimer au préalable : quelle part cette réputation prend dans mon CA ? A-t-elle un impact direct sur mes ventes ?

Ceci étant dit, il se questionne ensuite sur l’impact du web dans cette réputation. Après avoir pris contact avec quelques agences il apprend que celle-ci font ce genre de recherches. Mais que, paradoxalement, elle propose aussi de mettre en place des actions et de mesurer les résultats. Comme si ses sous-traitants réalisaient eux-mêmes leurs contrôles qualité ! Il se dit alors qu’il va devoir prendre deux agences : une pour la mesure, l’autre pour l’action…

 

 

Après plusieurs échanges avec des agences, celles-ci lui proposent la mise en place d’indicateurs chiffrés (Bernard est rassuré car il aime les chiffres, il appréhende mieux). Indicateurs que Bernard ne comprend pas en totalité. Mais comme tous les prestataires lui ont proposé les mêmes chiffres Bernard pense que, comme pour son usine, un consensus existe et que les indicateurs sont les mêmes pour tous. Dommage, lui qui croyait avoir une réputation unique…


De plus, Bernard s’aperçoit que ces prestataires n’ont pas que les indicateurs en communs : ils ont les même processus. Pré-audit, création d’espaces, animation d’espaces et de comptes sur les réseaux sociaux, restitutions des résultats (qu’ils auto-évaluent donc).

Bernard se dit, encore une fois, que seul le prix sera déterminant… Car, après avoir consulté les clients des agences (principalement parisiennes) il s’aperçoit de plus qu’elles ont toute des clients en commun : Orange, Bouygues, France TV, etc.

Il décide donc de réaliser un appel d’offre car il est prêt à investir un budget conséquent et à l’intégrer à sa stratégie de communication/marketing. Seulement, après l’envoi de ses premiers appels, certains prestataires le contact en lui soulignant qu’il a oublié certains détail : les intermédiaires. A savoir de quoi financer : des articles de blogs, des relations presses, des Adwords et autres pubs contextuelles si besoin est, des graphistes et webmaster pour développer des sites, des régies publicitaires, etc.


Au final, les prix que lui proposent les prestataires sont relativement homogènes : s’ils varient en fonction des stratégies proposées, le prix unitaire d’une action en particulier reste globalement le même, à savoir celui du temps passé pour la mettre en place.

 

Bernard se fait une raison : la réputation est devenue une industrie, où seuls les tarifs de ceux qui la gèrent permettent de les différencier. Tarifs dont l’optimisation des process de mise en place des actions est le levier le plus important. Comme dans son usine quoi…


 

Vers une industrie de la réputation…


L’histoire de Bernard (fictive mais déjà vue) vise à souligner que, dans le far west de la réputation en ligne où les prestataires se ruent sur l’or par centaines depuis quelques années, la normalisation des pratiques entraine l’industrialisation des prestations.


Industrie-reputation2.jpgCar si un prestataire peut mettre un prix sur votre réputation, ce n’est pas forcément parce qu’il peut la mesurer, mais c’est tout simplement parce qu’il sait combien cela coûte de la fabriquer. Comme dans le monde industriel traditionnel, l’usage de l’objet sert moins à déterminer le prix de vente que le coût de fabrication du produit en lui-même… Ainsi que sa rareté (mais la réputation est « partout ») et les fluctuations du marché (nous y reviendrons plus loin).


 

De manière globale, l’idée « d’industrie de la réputation » est en marche. Cette appellation, proposée entre autre par le Professeur Jacques Perriault (je vous invite d’ailleurs à lire le très bon article du blog Les identités numériques sur le sujet), revêt tout son sens quand on s’intéresse de plus près au business de l’e-réputation.


Si nous prenons la définition que Wikipédia donne d’une industrie, il est facile de trouver des points communs avec les prestations de gestion et de « fabrication » de la réputation (en ligne ou non) :


==> L’industrie sous-entend une certaine division du travail. D’un point de vue macro, la réputation ne repose pas sur un seul acteur, mais sur la division (explicite ou non) que plusieurs acteurs font des « pouvoirs » médiatiques dont ils disposent : les journalistes et les relations presse, les blogueurs et les régies, les community managers et les plateformes sur lesquels ils développent leurs communautés, etc.

Dans une vision micro, une agence « qui tourne » subdivise elle aussi fortement ses tâches : commerciaux pour vendre et chiffrer une prestation, chefs de projets pour gérer les équipes, veilleur pour identifier les risques ou opportunités, RP pour contacter les acteurs intéressants, community manager pour gérer les espaces de marques… Un processus dont l’optimisation (basée généralement sur le temps/hommes) est la clé lors de la définition des tarifs d’une prestation. Avec, bien entendu, la redistribution nécessaire aux autres parties prenantes.


 

==> Pas d’industrie sans une notion d’échelle. La normalisation des pratiques (caricaturée dans le Kit de survie du (bon) consultant en e-réputation) est à la fois cause et conséquence du développement de prestations identiques et de plus en plus à grande échelle. Ce qu’un prestataire propose doit s’intégrer dans une démarche globale et pouvoir répondre sans trop de modifications à une grande partie des clients. D’où le développement continuelle d’une agence (généralement celles-ci ne font que croitre pour diminuer leurs coûts… quand elles n’ont pas recours à des variables d’ajustement comme les intérimaires stagiaires).


 

==> Définitions d’indicateurs. Là où les industries traditionnelles ont réussie à rationaliser le travail (Fordisme ou encore Taylorisme), les industries de la réputation (en ligne particulièrement) ont réussie à rationaliser les sentiments et l’influence.

Cette « commensuration » (traduisez : transposer des relations en chiffres) est à l’œuvre chaque jour sur le web : de Klout qui ne cesse de défrayer la chronique, avec avant lui les mêmes débats sur Wikio ou encore la pertinence du Page Rank, etc. Bref, la réputation est devenue rationnelle, rationalisable, donc évaluable, alors vendable.


 

==> L’un des tournants moderne de l’industrie a été tout d’abord le développement des technologies (la « révolution industrielle »). Pas besoin de schématiser cet équivalent sur le web : tous les jours sortent de nouveaux outils, de nouveaux outils pour mesurer les outils, et bien entendu des outils pour fabriquer des outils. En résumé, là où l’évaluation de la réputation passait soit par des indicateurs qualitatifs long et couteux à mettre en place (type sondage), le web vient permettre d’accéder à des technologies simplifiant largement cette collecte de données. Et donc booster une industrie qui, avec un minimum d’outils (type Google, des outils gratuits ou premium par exemple), peut maintenant fournir des études aussi fiables et fouillées que les grandes entreprises d’études de l’opinion d’antan.

 

A noter que ne se reposer que sur des données chiffrées et accessibles amène «le risque (…) de voir apparaître une espèce de fétichisme de la data qui est sans doute l’expression d’une certaine fascination pour les objets techniques et les “nouveaux services” » (selon Julie Denouël et Fabien Granjon).


 

==> Autre tournant moderne du développement de l’industrie : l’accumulation du capital. Si l’on parle de réputation, l’investissement ne repose plus seulement sur les entreprises mais aussi sur les internautes. Au-delà de l’image façonnée par la marque, les internautes entrent dans le capital réputationnel de l’entreprise. Les internautes y investissent du temps pour produire du contenu ou de l’attention (« temps de cerveau disponible »). Voir pour certains, leur propre réputation (experts, blogueurs, etc.).

Ce qui explique par ailleurs l’investissement de nombreuses firmes (comme Google) pour certifier l’identité numérique des internautes, afin en quelques sortes (et avec un soupçon de cynisme) d’assurer au mieux l’investissement…


 

La définition de l’industrie de la réputation (en ligne) pourrait prendre en compte de nombreux autres critères, mais l’attention étant un produit rare (merci d’avoir déjà parcourus ce billet jusqu’ici ), limitons nous à ces quelques faits facilement identifiables. Et au-delà de l’industrialisation, il est évident que nous pouvons aussi parler de marché de la réputation.

 

 

…à un marché de la réputation en ligne.

 

La réputation s’industrialise (tout du moins sa gestion) mais devient aussi une forme de marché (tout du moins l’e-réputation). Un marché où :


=> On échange de l’attention

=> On monnaye l’influence et la capacité à fédérer des communautés

=> L’innovation reste un vecteur fort de différenciation

=> La concentration des acteurs est de plus en plus visible

=> La législation est en constante évolution

=> L’Etat souhaite jouer un rôle fort (« moralisons la réputation et le web »… et surtout les [méchants] traders internautes)


En résumé, un marché sur lequel veulent se positionner de plus en plus d’acteurs, en industrialisant leurs processus, en normalisant leurs approches, au risque de voir (un jour ou l’autre) une forme de krach (sur Internet on préfère dire « bulle ») dont seuls les acteurs les plus forts en sortiront indemnes.

 


Au final…

 

Le prix d’une prestation de gestion de la réputation en ligne ne dépend pas tant du résultat à obtenir ou de la réputation de départ, que du coût de mise en place des actions nécessaires à sa bonne gestion.


Si les artisans existent toujours, le développement d’un tel marché, où les acteurs ne se limitent pas aux seules agences, risque de faire diminuer les prestations sur mesures. La question n’est pas de savoir si cela est « bien ou mal » mais de s’interroger sur ce qu’une organisation peut attendre d’une prestation d’e-réputation. Et donc, au final, le prix qu’elle est prête à y mettre.

Et comme le choix s’appuiera de moins en moins sur la différenciation entre concurrents au niveau des actions ou des résultats, restera aux prestataires d’e-réputation le choix de miser un maximum sur… leur réputation. La boucle est alors bouclée !


 

Et vous, avez-vous était déjà confronté (comme Bernard) au choix d’un prestataire dont seul les prix le différencier des autres ? Comment percevez-vous cette idée d’industrialisation de la réputation et de sa gestion ?

 

Repost 0
29 août 2011 1 29 /08 /août /2011 16:59

 

StroytellingLe storytelling consiste à raconter pour communiquer. Ce concept qui se développe depuis quelques années déjà est généralement conçu pour être appliqué par une organisation à sa communication. Cependant, les organisations ne sont pas les seules à se mettre en scène : lorsqu'un internaute raconte, par exemple, ses déconvenues avec une entreprise sur le web, lui aussi à tendance à raconter pour transmettre. Appréhender les discours d’internautes comme des histoires peut être une manière d'analyser les échanges entre internautes, et in fine, sa réputation en ligne.

 

 

 

 

 

 

 

 

Le storytelling comme filtre narratif des discours d'internautes

 

 

 

Si le storytelling est une technique de communication, ce concept peut aussi être utilisé comme méthodologie d'analyse. Ou comment intégrer les récits d'internautes dans l'histoire que l'on raconte. Et ce, pour atteindre plusieurs objectifs :

 

==> optimiser sa narration en intégrant les histoires (les retours d'expériences, les impressions, etc.) des internautes

 

==> mesurer le décalage entre l'histoire racontée par l'organisation et celle racontée par les internautes

 

==> développer des réponses adéquates

 

==> déconstruire les commentaires/avis pour ne pas se limiter au simple positif/négatif/neutre

 

 

Nous ne reviendrons donc pas ici sur le storytelling comme technique de communication, mais bien comme cadre d'analyse en vue de préparer une stratégie de réputation en ligne plus efficace.

 

 

Si cet aspect vous intéresse, je vous invite à lire le bon résumé du livre « Storytelling, le guide » sur le blog du Personnal Branding. Ou encore, pour des exemples concrets, le blog Story Playing.

 

 

Voyons cependant rapidement, en quoi le récit est au centre du web et de l'analyse d'une réputation en ligne.

 

 

 

Le récit comme outil de l'internaute

 

 

Tout comme les entreprises, et peut être même plus qu'elles, les internautes se mettent en scène.

 

Que ce soit par le choix d'un pseudo, d'un avatar, de certaines formulations, etc., le web est depuis ses débuts un outil de mise en masque et de mise en scène. Si l'on prend un support donné (page Facebook, forum, etc.), il est même possible d'observer que cette mise en scène est fortement liée au contexte même d'expression : thématique du forum ou de la page, rôle de chacun des intervenants (modérateur, troll, chevalier blanc, etc.), interaction avec d'autres supports...

 

Un ensemble de caractéristiques qui amènent tout d'abord à dire que, si le web est loin d'être « représentatif », il est emplie d'acteurs qui définissent leur propres rôles et qui peuvent être en priorité appréhendés en fonction de ce qu'ils mettent en scène plus que de « ce qu'ils devraient être dans la vraie vie ».

 

 

Au-delà de cette mise en scène de soi, le web est un support important de récits : récits de vie, amoureux, professionnels, politiques, etc. Les blogs des origines en sont d'ailleurs un très bon exemple, et les réseaux sociaux n'en sont que leur continuité : assembler l'ensemble des messages d'un utilisateur actif de Twitter, et vous aurez sûrement une histoire cohérente (avec tout ce qu'elle comporte de mise en scène donc) à raconter sur lui.

 

Les récits sont donc au cœur du web. Comme le souligne Wilkins1 les récits « relatent des événements particuliers en les intégrants dans un format universel ». Appliquée au web, et plus particulièrement à l'analyse de la réputation en ligne, cette première approche permet tout d'abord de souligner que chaque récit d'internaute est unique (non-extrapolable, non généralisable) mais qu'il s'inscrit tout de même dans un format compréhensible par tous. En résumé, chaque histoire est différente mais celle-ci sera tout de même accessible à tous (aux autres clients par exemple).

 

Cette idée de « format universel » mérite aussi d'être souligné d'un point de vue « social CRM » : si chaque histoire est différente, il n'empêche néanmoins qu'elles peuvent être analysées et transmises sur un support compréhensible par tous dans l'entreprise. Il n'est plus alors question de traiter « un cas particulier », mais de réorganiser chacun de ces cas pour qu'ils s'inscrivent dans les procédures de traitement prévus par l'entreprise.

 

Appliquer des techniques de construction (storytelling) et de déconstruction du récit répond donc à ce premier objectif : décontextualiser le discours des internautes pour l'intégrer à un format de récit intelligible par l'entreprise.

Ne pas chercher un tout unique, mais un ensemble de parties s'articulant pour construire le récit d'une expérience particulière concernant l'organisation ou ses produits/services...

 

 

De même, et là encore le récit se révèle un outil intéressant de compréhension de sa réputation en ligne, « l’intentionnalité se situe au cœur de la notion de récit : l’action téléologique occupe une place-clé dans ce qui peut se raconter ce qui fait qu’un récit peut toujours se lire comme une quête2.». Un récit à donc une finalité lorsque l'internaute s'y réfère : chercher une réponse de la part de l'entreprise, prévenir les autres internautes d'un risque, voir influer directement sur la réputation d'une organisation.

 

Un internaute va donc, par l'histoire qu'il raconte, véhiculer intentionnellement la perception qu'il a de la réputation d'une entreprise. Et quoi de mieux qu'une histoire à raconter et diffuser autours de soi ?

 

 

Décrypter précisément les différents éléments qui construisent cette histoire et y apporter une réponse précise est alors essentiel.

 

Voyons un exemple...

 

 

 

Exemple de décryptage d'un récit d'internaute

 

 

Décrypter un récit, une histoire d'internautes permet donc de mieux répondre à diverses questions :

 

==> Quelle est la part de vérité dans ce discours ?

 

==> Quels sont les éléments auxquels l'entreprise peut répondre ?

 

==> Quelle est l'opinion réellement formulée dans le récit ?

 

==> Quels sont les éléments déjà vus ailleurs, ou qui ont été ensuite repris par d'autres internautes ?

 

==> Quels sont les éléments qui peuvent être réutilisés par l'entreprise dans sa communication ?

 

 

L'exemple ci-dessous s'applique volontairement dans un forum. Forums où, à l'heure actuelle, se trouvent encore les discours les plus détaillés et à valeur ajoutée. Car il est évident que les « j'aime » et autres « RT » deviennent vite limités en termes d'analyse, et reposent souvent plus sur de l'interprétation que sur des des bases d'analyses fiables. De plus, les interactions sur les réseaux sociaux sont souvent pauvres en terme d'argumentation et de qualité.

Et si nous prenons l'exemple de Twitter, la définition d'un récit est possible, mais nécessite tout de même d'agglomérer et rendre cohérent un ensemble de nombreux messages (approche du « détective » intéressante tout de même ).

 

 

Cet exemple est tiré du forum http://www.droit-finances.net/ où, comme son nom l'indique, les conversations sont généralement orientées sur des litiges ou des questions à caractères normatifs et législatifs.

 

     

Voici une question posée (il y a un an) par un internaute concernant les nouvelles normes en terme d’envoi de colis. Dès le départ, l'internaute souligne qu'il va mettre en récit son discours :

 

 

Storytelling1

 

 

Une quinzaine de lignes au travers desquelles nous n'avons pas un message unique, mais bien diverses sous-parties. Parties qui ne nécessitent pas la même analyse, et donc le même type de réponse.

 

 

Les informations demandées

 

 

Storytelling2.jpg

 

 

La raison pour laquelle l'internaute s'exprime sur le forum. Supposons qu'un community manager souhaite répondre à ce message, il devra en priorité répondre à cette question.  

 

Cela souligne par ailleurs un manque en terme d'information et oriente donc l'entreprise dans sa stratégie de communication (ce qui doit être dit ou non).

 

 

 

Les données

 

 

Storytelling3.jpg

 

 

Il s'agit ici d'identifier si les données qui ont motivé l'internaute à s'exprimer sont vraies, ou s'il s'agit d'une erreur. Cette analyse permet notamment d'endiguer dès le départ tout lancement de rumeur.

 

 

La rupture

 

Storytelling4

 

Une histoire que l'on raconte est généralement construite autours d'événement habituels (des routines) et d'événements inhabituels (des ruptures). Dans cette exemple, l'internaute souligne bien la rupture dans ses habitudes.

 

Identifier ce qui crée la rupture permet par la suite de faire évoluer l'image voulue par l'entreprise (celle qu'elle souhaite diffuser). De constater que son public est face à un événement qui va modifier la perception qu'il a de l'entreprise. Reste à savoir par la suite si cette rupture était voulue, si elle a manqué d'accompagnement au niveau de sa communication, etc.

 

 

La perception du produit/service ou de l'entreprise

 

 

Storytelling5

 

Ce que l'on recherche souvent en priorité dans une analyse de l'e-réputation d'une organisation : la perception en terme d'opinion du produit/service/entreprise.

 

 

Au-delà, ce type de récit fourni de nombreuses autres indications : dénomination du produit (« petit paquet » dans l'exemple), indicateurs temporels, association avec une autre marque, relation avec les collaborateurs de l'entreprise...

 

 

Cet exemple est applicable à de nombreuses autres conversations d'internautes. Les échanges qui s'en suivent permettent d'ailleurs de définir les rôles de chacun dans une communauté (cf. Les commentaires: matière vivante de l'e-réputation). Bien entendu chaque catégorie peut être redéfinie différemment en fonction de l'organisation, de la complexité du récit...

 

 

 

Au final...

 

 

Si le storytelling est un outil intéressant pour construire la communication d'une organisation, il l'est aussi pour décrypter les discours des internautes. Le récit suit un format universel qui permet de le transposer afin de le transmettre et de favoriser son appropriation en fonction des objectifs de chacun.

 

Et quoi de mieux donc qu'une histoire comme moyen de transmission de valeurs comme la réputation ?! Intégrer l'histoire de son public à la sienne pour être constamment en adéquation avec les attentes et perceptions de celui-ci est un moyen intéressant de développer sa réputation par la communication.

 

Bien évidemment, cette approche est parfois plus complexe à mettre en œuvre que d'autres. Loin du positif/négatif/neutre, l'idée est d'appréhender certains échanges entre internautes comme des récit permettant de mettre en contexte des connaissances. Et ce afin de mieux les transmettre aux autres internautes... et à l'entreprise dont il est question !

 

 

Et vous, quels autres apports voyez-vous entre le storytelling et l'e-réputation ? Pensez vous que l'analyse des récits est un moyen pertinent pour mieux évaluer sa réputation ?!

 

 

 

1WILKINS, A. L., The creation of company cultures: the roles of stories and human ressource systems, Human Resource Management, vol. 23, 1984.

2BROWNING, L . D., Boudès, T., La dialectique entre listes et récits au sein des organisations, in Revue française de gestion, Vol 6, 200

 

Repost 0
18 juillet 2011 1 18 /07 /juillet /2011 12:53

Veille-en-reseau.jpgS’il est toujours difficile de réaliser un exercice prospectif sur l’évolution de pratiques professionnelles et d’un métier, il n’est pas impossible de souligner certaines grandes tendances. Dans le cas de la veille, il parait intéressant de se concentrer sur le développement de certains usages plus que de technologies. En l’occurrence, il n’est pas insensé de penser que d’ici les deux ou trois prochaines années à venir, certains usages propres au web redéfinissent la mise en place de stratégies de veille. Voyons comment…

 

Cet article est issu du livre blanc collaboratif sur la veille !

 


Cet article se concentrera particulièrement sur les aspects web de la veille, avec un soupçon de gestion de la réputation en ligne (qui n’est déjà plus une tendance mais une pratique avérée). De manière synthétique seront mis en exergue les points suivants :


 ==> La veille sur le web nécessite de plus en plus de s’approprier les méthodes de gestion des réseaux (sociaux, numériques ou non)


 ==> Le filtre de l’information devient de plus en plus humain, que ce soit par le biais du social search ou de ce que l’on nomme la « curation »


 ==> La temporalité de la veille en organisation s’élargie : de la mémorisation nécessaire à la prise de décisions sur le long terme à la réactivité quasi temps réel des activités de social CRM, la qualification des sources et de l’information devient un enjeu cruciale


 ==> De nouveaux métiers intègrent la veille de manière quotidienne dans leurs pratiques, le spécialiste de la veille (le veilleur) voit donc son rôle devenir de plus en plus managérial

 

 ==> Enfin, au niveau business, l’apparition de nouveaux prestataires toujours plus nombreux ne risque-t-elle pas d’entrainer une certaines normalisation des pratiques ? Voir la mise en place par des « géants du web » de plateformes tout en un dédiées à leurs services ?

 

 

L’idée étant de vous faire partager certaines réflexions sur les possibles évolutions à prendre en compte afin de penser dès aujourd’hui la veille de demain…

 

 

 

La veille vient du réseau et retournera au réseau ?


 

S’il fallait faire un très bref historique de la veille nous pourrions nous arrêter quelques instants sur l’apport de l’intelligence économique dans ce domaine. Issue du renseignement humain (étatique plus précisément) la recherche d’informations s’est toujours concentrée sur le réseau humain. Réseau de sources scientifiques, industrielles, politiques…  Quel meilleur moyen d’obtenir une information à valeur ajoutée (entendez que personne n’a ou tout du moins qui est difficilement accessible) que de passer par l’émetteur même de cette information ?


Là où les pratiques documentaires ont amené la veille vers la recherche et la surveillance d’informations sur des grandes bases de données structurées, le développement des réseaux socionumériques (pas la peine de revenir ici sur ce phénomène) permet dans un certain sens le mix des deux : la création de bases de données en réseaux où l’humain est le principal émetteur et participe de manière organique à l’indexation des données.


Aujourd’hui, parmi les professionnels de la gestion de l’information, qui n’a pas un compte Twitter/Facebook/Viadéo ou autre ? Qui ne s’en sert pas un minimum pour obtenir de l’information liée à son domaine d’étude ? Ce constat évident amène à s’interroger sur les pratiques de veille à venir. Pratiques qui devront faire appel non seulement à celles déjà existantes et issues de la recherche documentaire, mais aussi à celles liées à l’animation et la gestion des réseaux humains.

 

Un compte Twitter (exemple à la mode) servant à la veille (de réputation ou autre) ne nécessite pas simplement de s’abonner à d’autres comptes trouvés grâce à une requête sur un moteur de recherche. Le développement de la recommandation sociale, de la prescription numérique, est certes généralement basé sur un algorithme mais puise de plus en plus sa force dans des actes purement sociaux et humains. Si vous pouvez rapidement obtenir des informations à valeur ajoutée, voir des « signaux faibles »  par l’utilisation de Twitter sans pour autant entrer en interaction, il y a un constat que l’on ne peut ignorer : le fait d’échanger avec ses contacts, de se faire connaitre, de développer une certaine connivence permet toujours d’obtenir plus d’information.


Comme lorsque vous vous rendez sur un salon ou dans une conférence, discuter avec les intervenants permet d’affiner les réponses que l’on est venu chercher, d’obtenir des informations moins structurées mais parfois avec plus de valeur ajoutée. Le web fonctionne lui aussi de plus en plus de cette manière. Veiller de l’extérieur permet évidemment une prise de recul toujours nécessaire… Mais s’intégrer à des réseaux (ou des communautés), mettre en avant clairement sa « carte de visite numérique », manager ses contacts pour obtenir en avant-première certaines informations vont devenir au fil du temps des pratiques inhérentes à toute activité de veille.

Et qui plus est si l’on parle de réputation en ligne où la fragmentation et la diminution de la porosité entre chaque réseau/communauté risque de diminuer l’accès à la matière première de ce type de veille : la conversation.

 

 

 

Vers des filtres humains : recherche sociale et curation ?

 


Les conversations d’internautes, la sélection/qualification/éditorialisation de l’information par des identités numériques amène donc la veille sur le web à des approches plus centrées sur la gestion des réseaux de contacts.


Mais, d’un point de vue technologique, cette importance de la « métadonnée humaine » (l’internaute) voit apparaitre le développement de ce que l’on nomme le « social search ». Que ce soit Bing qui intègre Facebook à ses résultats de recherches, ou Google qui vous permet dès à présent de classer vos résultats en fonction de vos contacts sur les réseaux sociaux, cet apport de la recommandation sociale dans la recherche d’informations est une tendance à intégrer dès maintenant dans les stratégies de veille.

 


Tout d’abord, il est intéressant de noter que de nombreux outils (gratuits pour la plupart) intègrent cette idée de recommandation et de  recherche sociale dans leurs résultats. Des méta-moteurs pour la plupart, ils mélangent (plus ou moins habilement)  des résultats en provenance de réseaux sociaux avec des résultats plus « classiques ». Mais de nouveaux outils apparaissent, avec pour objectif de vous permettre de rechercher directement dans vos propres réseaux. Réseaux qu’il convient alors (comme dit précédemment) de constituer de manière stratégique en identifiant clairement vos contacts et ce qu’ils peuvent vous apporter en matière informationnelle.


Néanmoins, si l’on parle d’e-réputation, la recherche sociale peut dès maintenant poser certaines questions : si un internaute voit en priorité les contenus de son réseau, comment identifier ceux qui auront le plus d’impact sur lui ? Doit-on positionner un contenu en fonction des résultats d’un moteur de recherche unique, ou des pratiques d’un réseau en matière d’information ?

 

Ces différentes questions et cette nécessité de se tourner vers le réseau amènent alors à réfléchir sa veille non pas seulement en fonction des capacités d’un outil à agréger de l’information, mais aussi en fonction des identités sur un réseau pouvant faciliter l’accès à cette information (des « agents-facilitateurs » en quelques sortes). Et comme le marketing fait bien les choses, une catégorie d’usagers déjà existante sur le web a vu ses pratiques hissées au rang de « new billion-dollar opportunity » : les curators.

Pour ne pas s’appesantir sur le débat « curation réalité ou fiction », il est important de souligner que la sélection, l’éditorialisation et la diffusion d’informations à destination de communautés web existe depuis les premiers news groups sur Internet.  Ce qui est intéressant avec cet enrobage marketing est que de nombreux éditeurs de logiciels amènent de nouveaux outils visant à faciliter (ou normaliser ?) ces pratiques.


Ce qui, d’un point de vue des stratégies de veille sur le web, ne peut être qu’un plus car cela permet d’identifier plus rapidement des relais utiles de l’information, et à intégrer dans son réseau de veille. Relais qui non-seulement sélectionnent l’information qui leur semble pertinente pour leur réseau/communauté (pratique pour évaluer des tendances), qui parfois contextualisent des données peu structurées, mais qui peuvent aussi être émetteurs de signaux faibles ou donner accès à des réseaux fermés.

 

Cependant, si ces pratiques de facilitation de l’accès aux contenus numériques par prescriptions  s’avèreront de plus en plus utiles  dans le cadre d’une stratégie de veille, elles amènent tout de même certains biais, dont les deux plus importants à prendre en compte sont : la redondance de l’information et la qualification des sources…


 


Qualification et mémorisation de l’information : des pratiques nécessaires ?


 

Si nous postulons donc que la constitution et la gestion de réseaux de contacts numériques, contacts dont la capacité à détecter et diffuser de l’information utiles s’accroit, est l’une des grandes tendances de la veille des années à venir, la question de la qualification de l’information devient cruciale.


Et, plus précisément si nous parlons de contacts, la qualification des sources doit être intégrée comme élément incontournable de toute stratégie de veille sur le web.  Se constituer un réseau doit permettre, au-delà de dénicher des signaux informationnels faibles ou peu accessibles, de gagner en réactivité. Réactivité s’il est question de rumeurs, de départ de crises, de prises de décisions en « temps réel » (si cela s’avère possible)… Mais prendre une décision (même si elle basée sur une rumeur) implique d’être conscient du contexte dans lequel celle-ci est diffusée, et ce principalement pour en mesurer toute l’ampleur (surtout si l’on parle d’e-réputation).

 

Se questionner sur l’identité réelle de la source, son appartenance à une communauté, sa reconnaissance par un réseau, son niveau d’expertise sur un sujet, sa capacité à vérifier l’information, à émettre un jugement ou une critique, etc… est (ou deviendra) l’un des enjeux principaux des pratique de veille à venir.


 

Qui plus est quand l’organisation et la veille se retrouve de plus en plus tiraillée par deux temporalités opposées :


 ==> La nécessaire mémorisation d’une information de plus en plus en « temps réel » et redondante (notamment par les pratiques de curations et de recommandations). Information qui doit être mémorisée pour des prises de décisions à venir, toutes les organisations n’ayant pas la même agilité stratégique au niveau des prises de décisions. Ou tout simplement pour définir des stratégies (marketing, communication, concurrentielles, etc.) sur le plus long terme


 ==> La nécessaire réactivité inhérente aux activités en pleine essor de social CRM (gestion de la relation client par les réseaux sociaux). Le développement des postes de community managers visent notamment à répondre à l’attente des internautes d’une gestion en temps réel de leurs demandes et critiques, et s’accompagne de plus en plus de nouveaux outils de veille dédiées à ces pratiques.


Ces deux nouvelles formes de veille amènent non-seulement à une forme de qualification de ses contacts, des sources et de l’information de plus en plus précise (que doit on garder ? A qui doit-on répondre ?), mais aussi à s’appuyer de plus en plus sur l’ensemble des collaborateurs présents dans l’organisation.

 

 

Du veilleur au manager ?


 

Aujourd’hui « tout le monde » fait de la veille ?! De nombreux professionnels ont accès aux outils gratuits de recherches d’informations, intègrent des réseaux (numériques ou non), recherchent et traitent de l’information, sont spécialisés dans un domaine très particulier… De plus, le « tous producteurs » sur le web amenuise de manière paradoxale mais proportionnelle le « tous analyste ».


Difficile aujourd’hui, pour une seul personne ou un groupe de personne, de pouvoir analyser l’ensemble des informations collectées sur le web : avis clients, avancées technologiques, changements politiques ou géostratégiques… De les traiter en temps réel si cela est nécessaire, voir même de collecter l’ensemble de ces informations, tant la redondance et l’apparition de communautés et sources aux thématiques bien définies apparaissent sans cesse.


Le « veilleur unique » risque donc de devenir aussi obsolète que le « tous veilleur » dans une organisation est un mythe. Si le spécialiste de la veille et de la recherche d’information doit s’orienter progressivement vers l’identification et la gestion de réseaux externes (sur le web ou ailleurs), son rôle s’élargie aujourd’hui à l’identification et au management de réseaux internes.

Votre comptable n’est-il pas un « curateur » de contenus liés à votre dernier produit ? Votre nouveau stagiaire un utilisateur de Twitter spécialisé dans le droit des nouvelles technologies ? Votre commercial l’administrateur d’une page Facebook et d’un forum où se retrouvent certains de vos clients ?


Bref, cette nécessaire détection des sources utiles va devoir être appliquée à sa propre organisation, qui plus est si celle-ci s’oriente vers un fonctionnement en « entreprise 2.0 », favorisant ainsi l’accès aux technologies de collecte et traitement de l’information. Qui plus est si ces ressources sont rares (tout le monde n’aime pas ou ne peut pas être un veilleur potentiel) ou difficilement accessibles.


Le spécialiste de la veille va donc voir son rôle s’orienter vers le management des ressources informationnelles plus que la collecte et l’analyse de celles-ci. Que ce soit par la définition d’une stratégie et d’une méthodologie globale de veille, la mise à disposition de certaines expertises (technologiques par exemple) sur le sujet, le développement d’actions « pédagogiques » en interne, ou la mise au point de schémas de diffusion appropriées, la veille va affirmer de plus en plus sa nécessaire capacité à exister dans un projet globale et non pas seulement comme une activité se suffisant à elle-même.

 

 

 

La veille restera-t-elle un business florissant ?


 

Dernier point : le business.


Est-ce l’e-réputation,  la démocratisation du web, la dématérialisation de nombreuses activités ?... Quel est le facteur qui amène le business de la veille à  se développer autant ?

Le constat est là : explosion du nombre de prestations en veille, de plateformes professionnelles, de stages postes, etc. La question est de savoir : jusqu’où et pour combien de temps ? Car s’il est difficile de miser sur une possible bulle de la veille (bien qu’une bulle 2.0 soit plus aisément envisageable), il est tout de moins intéressant de constater une certaines propension à « normaliser » les pratiques de veille. De manière implicite de nombreux standards sont en train de se développer, que ce soit sur les capacités des outils à analyser les sentiments, la qualification de ceux-ci en positif/négatif/neutre, la mise en place de « panels  représentatifs », etc. Normalisation qui, si elle permet à chacun de se positionner sur un marché (très) concurrentiel, risque à long terme de laisser passer un bon nombre de possibles innovations en matière de technologies ou de pratiques.

 

Enfin, qui dit développement d’un marché, dit concentration (enfin en général).  De nombreux éditeurs se font rachetés par des éditeurs plus gros, proposant ainsi des outils de plus en plus « tout en un » et « clés en main ». Qui nous dit que, dans les années à venir, Google ne développera pas sa propre plateforme de veille accessible à tous (la firme propose déjà un blog sur la recherche d’informations) ? Ou que Facebook et Twitter feront de même ? Et que l’un engloutira ensuite les deux autres ?


En résumé, quid du marché si florissant de la veille quand à force de se concentrer et orienter ses clients principalement sur ces trois outils web (Google, Facebook et Twitter), ces géants développerons leurs propres prestations sur le sujet ?

L’avenir (proche) nous le dira surement… ou pas !

 

 

 

Au final Madame Irma ?...


 

Nous aurions pu parler ici de l’affinement de l’analyse sémantique, de l’automatisation possible de la veille du futur, de l’apport de telle ou telle pratique sur l’évolution de la veille, voire pourquoi pas de l’arrivée de la TV connectée (son aspect asynchrone et ses multiples nouveaux émetteurs).


Le choix a été fait de souligner que si les technologies et leur démocratisation bouleversent sensiblement les activités de veille (et son métier), l’aspect humain reste et restera néanmoins le plus important dans les années à venir.


La réflexion, la connaissance du terrain et des récepteurs de l’information, la définition de méthodologies fiables, la gestion de réseaux sociaux numériques ou non, ont toujours été essentiels dans les stratégies de veille. Là où les technologies web semblaient faciliter voir écarter certains de ces aspects, il est intéressant de parier qu’à l’avenir elles ne feront que les renforcer.


Entre souhaits et tendances, ces 5 évolutions/adaptations possibles sont à réfléchir pour celles et ceux qui souhaitent  préparer la veille sur/par le web de demain. A moins que la station Mir tombe sur les datas centers de Google, ou qu’un coup de pioche malencontreux nous ramène au Moyen-Age… Allez savoir !

Repost 0
21 juin 2011 2 21 /06 /juin /2011 13:27

COSSI.gifChristophe Deschamps et moi-même avons participé au Colloque Spécialisé en Sciences de l’Information de l’Université de Moncton au Canada. Notre communication scientifique s’intitulait : « Veille stratégique et internet participatif : les usages des agents-facilitateurs remettent-ils en question le concept de signal faible ? ». Voici l’article et la présentation qui va avec.

 

 

 

 

 

Cette communication s’inscrit dans le cadre de mes recherches (qui portent globalement sur la mesure de l’e-réputation et les usages de ce que je nomme les « agents-facilitateurs »), et a permis à Christophe de développer sa vision du concept (controversé) de « signal faible ».

 


 

Le résumé de cette communication est le suivant :


« Le concept de signal faible, ou signe d’alerte précoce, est inhérent aux pratiques de veille stratégique. A l’heure du web dit 2.0, où la possibilité est donnée à chaque internaute de produire et diffuser du contenu, il parait nécessaire de s’interroger sur la place du signal faible dans ce nouveau contexte informationnel. Mais aussi, sur les moyens de le détecter, et ce en s’appuyant sur une nouvelle classe d’usagers du web : les agents-facilitateurs, dont le rôle premier est de servir d’alternative aux moteurs de recherches par le biais de recommandation sociale de contenus. »


 

Voici le lien vers l’article sur HAL (archives ouvertes).


 

Ainsi que le lien vers les slides de la présentation que j’ai  effectuée devant un public de chercheurs francophones venant d’un peu partout (Canada, France, Guinée, Cameroun, etc.) :

 

 

 

 

 

 

 

Recommandation, curation, veille et signal faible…


 

Cette communication vise donc à souligner les usages des « agents-facilitateurs », ni curators ou veilleurs mais prescripteurs de contenus informationnels numériques. Et surtout le fait que l’ajout de métadonnées qu’ils effectuent permet de mieux contextualiser une analyse d’opinions et faire émerger des contenus parfois inaccessibles depuis les moteurs de recherche.

 


Ensuite, il parait difficile de parler de « signal » et il semble plus adéquat de parler de « signe », dont la perception totalement subjective ne peut être érigée en règle absolue, et surtout pas industrialisée.


Dans ce contexte, les « plateformes de curation » apparaissent comme un champ d’expérimentation intéressant puisque leurs utilisateurs viennent explicitement agréger/annoter/diffuser du contenu qui leur semble pertinent et/ou peu visible dans des thématiques bien précises. Là où la qualification des agents-facilitateurs parait plus aisée sur ce type de plateformes, l’intégration de ceux-ci dans une cellule de veille stratégique nécessite de prendre en compte l’aspect managérial inhérent à la gestion des signaux faibles, et ne pas tomber dans le piège de la fascination pour les outils (surtout que ces mêmes outils soulèvent de nombreuses questions, et sont surement voués pour la plupart à disparaitre assez vite).

 

Au final ces usages de facilitation, de filtrage humain, ne remettent pas  totalement en cause le concept de signal faible, mais ils renforcent son aspect subjectif et surlignent la difficulté de les détecter dans un web où chaque internaute devient, potentiellement, un signal faible…


 

Vous retrouverez au passage l’ensemble des actes du colloque ici, où de nombreuses communications méritent d’être lues.


 

N’hésitez pas si vous avez des questions, remarques ou critiques sur ce papier !


 

Et vous, pensez-vous que les usages du web entrainent de plus en plus de « bruit » au risque de noyer certains signaux ? Et que pensez-vous de l’idée de s’appuyer sur les internautes prescripteurs de contenus dans une stratégie de veille ?!

Repost 0
4 mai 2011 3 04 /05 /mai /2011 17:46

Communication-Geek.jpg

Le web se démocratise de plus en plus, l’aspect 2.0 étant parfois plus lié à l’accès généralisé à Internet qu’à des technologies ou des usages. Les stratégies de communication s’adaptent elles aussi à cette nouvelle donne, confondant parfois audience et impact communautaire. Ce qui amène à se poser cette question : si je souhaite « faire de l’audience » dois-je passer par les blogs les plus en vues ? Ou autrement dit : la communication « virale » ne s’adresse-t-elle qu’aux geeks (ou internautes contributifs et avertis) ?


 

Ces rapides réflexions viennent de questions récurrentes lors de la définition d’objectifs de veille avec des personnes « découvrant le web » (du point de vue stratégique s’entend), et de quelques échanges sur Twitter. Au passage, je dis « rapides réflexions » car en ce moment j’ai moins de temps à consacrer à ce blog, et je m’en excuse (pour vous lecteurs qui vous abreuvez de mes billets équivalents à 10 pages words)  Promis, du plus costaud arrive bientôt !


 

Reformulons le constat mis en introduction. Très très  globalement (car il y a un nombre quasi illimité de possibilités et de nuances) une stratégie web permet :


==> de développer des stratégies de communication participatives, ou globalement d'intégrer les internautes dans un processus stratégique

 

==> de gagner en visibilité sur les outils d’accès à l’information numérique (moteurs de recherches en tête)


==> de voir son message rediffusé et partagé par les internautes (mais aussi commenté, annoté, modifié, etc.)


==> de faire connaitre un produit, service, événement, etc., en profitant de l’audience de sources déjà bien en place, ou en créant certaines


Là où, de mon point de vue (et on est là aussi pour en débattreJ) il y a parfois ambiguïté, c’est lorsque l’on s’interroge sur les deux derniers points.  Diffuser un message de manière large ne signifie pas toujours lui apporter de l’audience. Voyons rapidement pourquoi…


 

 

Des classements basés sur la réciprocité ou le déclaratif


 

Tout d’abord concentrons-nous sur les blogs.


Si nous prenons Wikio, dont le classement est toujours discuté et discutable mais qui reste néanmoins une référence sur le sujet, nous nous apercevons que les critères de hiérarchisation des blogs sont globalement les marques de réciprocité : liens entrants et volume de tweet principalement. En définitive (et un peu comme Google) on définit la popularité en fonction des « marques d’affections » (si je puis dire) données par d’autres internautes/blogueurs.

 


Premier constat (qui ne date pas d’hier) : les blogs forment des communautés généralement assez fermées (du point de vue de la théorie des graphes et lorsque l’on représente visuellement ces échanges de liens). Autrement dit, si l’on navigue seulement de liens en liens à partir d’un blog thématique, on peut rapidement faire le tour des autres blogs sur le même sujet.


Avantage : Google se basant sur le même principe, un blog avec de nombreux liens entrants à toutes les chances d’être bien positionné sur un moteur. S’il communique sur votre organisation vous gagnerez donc en visibilité.


Mais… Au final, qui dit communauté ou réseau, dit audience spécialisée (ce qui est pratique pour cibler), et surtout réduite (ce qui ici est moins pratique en termes d’audience).

 

 

Autre approche pour savoir « quels sont les blogs les plus intéressants pour une thématique » : le déclaratif (les bons vieux sondages en somme).


Et là nous tombons vite dans le syndrome Arte… Dans une étude Télérama (impossible de remettre la main dessus, si jamais vous la connaissez…) où l’on demandait aux Français « qu’elle est votre chaine de TV préférée ? », ceux-ci répondaient : Arte. Mais, en termes d’audience il est clair que  TF1 est la chaine préférée des français.

 

Autrement dit, le déclaratif à ses limites et fait difficilement la part entre le souhaité et le réel.

 

 

Voyons maintenant cet exemple appliqué à deux blogs : www.jeanmarcmorandini.com et www.presse-citron.net


 

 

Si je veux de l’audience dois-je m’appuyer sur un classement comme Wikio ?


 

Jeanmarcmorandini.com :


==>  Audience déclarative : 1 300 000 visiteurs uniques par mois (il a même gagné un procès sur ces chiffres)


==> Volume de liens entrants : 80 000 environ (à ce jour, selon Site Explorer, après suppression des liens internes et  en intégrant ceux pointant vers toutes les pages)


 

Presse-Citron.net :


==> Audience déclarative : 450 000 visiteurs uniques par mois (en 2009)


==> Volume de liens entrants : 330 000 environ (même procédé que pour le précédent). Et top des blogs High-Tech inscrits sur Wikio.


Une rapide utilisation d’outils comme Alexa ou Ad Planner confirme ces chiffres d’audience (même si ces deux outils sont loin d’être fiables). Nous constatons donc : que le premier à une forte audience mais n’est pas reconnue par d’autres blogs ; comparativement au deuxième qui a une audience moindre mais est bien implanté dans la « blogosphère » (si sphère il y a).


 

Bon, là vous m’arrêtez tout de suite : « comparer Presse Citron et Morandini c’est comme comparer un coq au vin et un big mac ».

 

Certes… Mais cet exemple un peu capillotracté vise à rapidement illustré les constats suivants :


==> Si vous souhaitez faire de l’audience pour lancer un produit, et que celui-ci peut être présenté dans ces deux blogs, choisissez Morandini


==> Si vous souhaitez être présent sur Twitter, Facebook, et avoir une audience spécialisée sur les nouvelles technologies, passez par Presse Citron


 

Autrement dit : vous ne mesurez pas l'audience potentielle en vous basant sur les résultats d’un classement comme Wikio, ou sur le volume de liens entrants d’une source (voir son positionnement sur les moteurs de recherche ?). La capacité de diffusion n’est pas toujours synonyme de volume de visites ou d’audience à proprement parler.


A nuancer bien évidemment (je suis très schématique dans ce billet) par, par exemple, le temps de visite et de retour des visiteurs…

 


 

Approche communautaire VS audience directe


 

N’en déplaise aux early adopters du web ou aux geeks professionnels (dont je suis) mais j’ai parfois l’impression que la démocratisation du web bouleverse les usages « de base ». Qu’au final, certain(e)s s’en servent de plus en plus comme une télévision : ils sélectionnent leur chaine (blog/site) favorite, puis s’y rendent directement par le biais de signets/bookmarks, ou tout simplement en tapant le nom dans Google.


Et à partir du moment où les sources en question ont décidé de ne pas « jouer le jeu » de l’ouverture et de la réciprocité, et d’essayer d’avoir une audience captive, alors ces internautes ne naviguent plus très loin (ou profondément) sur le web…


Il m’arrive souvent de tomber sur des blogs dont les thématiques sont déjà traitées et retraitées, de me dire « tiens, je ne connais pas », de faire mon bon veilleur/geek et de regarder leurs volumes de liens entrants, etc. Et là : pas grand-chose. Mais : de nombreux commentaires…

 

 

Au final, lorsque vous définissez vos objectifs stratégique il est essentiel de bien faire la différenciation entre :


==> Les sources qui vont vous apporter de l’audience pour votre message, qui vont le faire connaitre/lire à un grand nombre d’internautes


==> Les sources qui vont permettre de diffuser largement votre message à une communauté d’internautes précises

 


Au risque de vous apercevoir que les réactions à votre message proviennent principalement de geeks actifs qui n’achèteront ou n’utiliseront jamais votre produit…mais qui adorent en parler quand même. Ceux que l’étude Forester nomme les contributifs et les participatifs.


Et de passer à côté des « consultatifs » qui sont peut-être votre « cœur de cible » et qui eux ne se servent du web que comme un nouvel outil d’information. Si je devais caricaturer (je sais c’est mal) : « je regarde Morandini tous les soirs à la TV, alors je lis aussi son blog »…


Ce constat est assez classique sur le web et décourage parfois certaines organisations : « on parle beaucoup de mon produit mais personne ne l’utilise ou ne l’achète… ». Si votre objectif est la visibilité et la notoriété pas de soucis. Si vous cherchez de l’audience comme sur les autres médias, changez de stratégie.

 

 

 

Vers de nouveaux métriques ?


 

Evidemment l’audience d’une source est impossible à connaitre en dehors des déclarations de son auteur. Les outils comme Alexa ne font que des estimations et montrent très vite leurs limites.

Difficile donc de définir l’audience d’un blog par exemple, hormis en passant par le volume de liens entrant, de commentaires, de reprises sur les réseaux sociaux, etc. Et comme j’ai essayé modestement de vous le démontrer, cela n’est pas toujours significatif (tous les internautes ne contribuent ou ne participent pas sur le web).

 

Il est donc temps de penser à de nouvelles formes de mesures (personnellement j’y travaille un peu dans mon coin, la suite au prochain épisode). Par exemple (ce ne sont que des idées qui me viennent comme ça) : créer des panels dont on observerait le comportement sur le web, et non pas juste du déclaratif (comme pour la TV).  Créer des modules type Google Analytics qui serait exportables et accessibles par n’importe qui (si ça n’existe pas déjà ?). S’appuyer un peu plus sur les méthodes utilisées par les régies pour les bannières web (si certains d’entre vous ont des infos là-dessus je suis prenuer), etc, etc.


 

Dans tous les cas, repenser ses stratégies web non plus en termes d’audience, mais en terme de capacités de diffusion et d’impact communautaire.


 

Voilà pour ces quelques réflexions (un peu plus longues que prévu). Je cherche d’autres exemples et cas significatifs pour vous proposer un billet un peu plus fouillé et basé sur des constats plus « scientifiques »… En espérant ne pas avoir été trop schématique, et ne pas avoir enfoncé des portes ouvertes (et ne pas avoir fait trop de pub à Jean-Marc) !


 

Et vous, pensez-vous que si une communication est « virale » elle peut réduire son audience ? Que mettez-vous derrière le terme « audience » appliqué au web ?!

Repost 0
5 avril 2011 2 05 /04 /avril /2011 20:39

L’influence… Un terme et un concept (sur)employés sur le web, parfois à tort, mais avec toujours la même idée derrière : une source, ou une identité numérique, peut impacter la perception qu’un individu à d’un produit, d’un service, d’une organisation… Là où des outils proposent de mesurer cette influence, voyons pourquoi cela semble seulement possible de manière  partielle.

 

Le concept d’influence est tout d’abord très large. Il peut recouvrir un aspect psychologique (une personne agit sur le comportement d’une autre), sociologique (le groupe sur l’individu), cognitif, voir politique.  Appliquée au web, cette idée d’influence est souvent vue sous l’angle des sciences de gestion (marketing),  ou comment les discours de certains internautes médiatisés, ou des échanges au sein de réseaux communautaires,  peuvent impacter la décision d’achat (ou de recommandation à un tiers) d’un produit ou service. Voir la perception que les internautes ont d’un individu ou d’une organisation (et là nous touchons à la réputation).

 

Les propos de cet article seront centrés sur l’impact que les informations diffusées sur le web par et pour les internautes peuvent avoir sur une décision d’achat d’un produit ou service, sur sa réputation aux yeux d’un client ou usager potentiel. Et comme la question de l’influence est (très) complexe, voici la manière la plus simple dont je pourrais l’expliquer à une néophyte : ma grand-mère ).

 

 

Mise en contexte : mamie, parlons d’influence


 

Voici donc un dialogue (semi-fictif) entre ma grand-mère (en italique) et moi-même :

 

==> Depuis tout à l’heure je te vois sur un site. Qu’est-ce que c’est ?


==> Il s’agit de Klout. Un outil qui permet de « mesurer l’influence » qu’un internaute a sur ses lecteurs.


==> Ah bon, on peut mesurer l’influence d’une personne sur une autre sur Internet ?


==> Disons que l’on peut l’évaluer très globalement et de manière très floue. Malgré tous les chiffres, c’est un processus complexe. Surtout si l’on parle d’un achat par exemple.


==> Oui, j’ai vu un reportage à la TV sur le fait qu’aujourd’hui, Internet influence de plus en plus les décisions d’achat. Tu peux m’expliquer comment cela se passe ? Simplement…


==> Ok. Mais déjà, il faut partir du principe qu’Internet n’est qu’une infime partie de ce qui peut influencer le comportement d’un individu, ou  la perception  qu’il a de quelque chose. Il y a énormément d’autres facteurs à prendre en compte. Voyons lesquels avec un petit exemple et des croquis.


 

Etape 1 : le hors-web

 

Prenons Paul… Il souhaite acheter un produit ou un service assez générique, ou tout du moins se renseigner sur celui-ci afin d’orienter sa décision.


Paul est, selon Forrester, un internaute « consultatif ». Comme la majorité des internautes, il utilise le web pour se renseigner, obtenir de l’information. Il ne participe pas à proprement parlé (hormis peut-être sur son profil Facebook de temps en temps).


Avant même de prendre son moteur de recherche favori pour rechercher de l’information, Paul a déjà été influencé par de nombreuses autres informations provenant de sources hors-web :


 

Influence-Web-Etape-1.jpg


 

Les recommandations de ses proches (famille, amis, etc.), la publicité ou les informations qu’il a capté dans d’autres médias influence déjà son choix. Voir même, s’il utilise certains réseaux sociaux, les échanges ou recommandations qu’il a pu voir passer sur ces réseaux.

 


 

Etape 2 : la recherche d’informations

 

Paul va ensuite passer par un moteur de recherche, afin de formuler sa requête pour obtenir des informations. Là encore, ses choix vont influencer directement les informations qu’il va obtenir, donc in fine sa décision.


 

Influence-Web-Etape-2.jpg


Le choix des mots-clés qu’il va utiliser, le moteur de recherche en lui-même, mais aussi ses pratiques informationnelles (sa capacité par exemple à formuler des requêtes complexes, à utiliser les options des moteurs) vont là aussi impacter au final sa décision. En l’occurrence, ceci va influer sur les résultats de sa recherche, mettant de prime abord en avant certaines informations pour en laisser d’autres « cachées ».

 

 

 

Etape 3 : les résultats du moteur de recherche

 

Statistiquement, Paul a dû utiliser Google, et s’arrêter à la première page de résultats. Mais déjà, plusieurs facteurs vont influencer son choix. Et plus précisément le choix des sources d’informations qui vont lui permettre d’orienter son possible achat.


Influence-Web-Etape-3.jpg


Les éléments qui vont influencer son choix (de la source d’information) sont ici aussi multiples : la publicité contextuelle, le titre et la description des pages web, la hiérarchisation (visibilité) de celles-ci, la crédibilité et/ou l’autorité qu’il accorde d’emblée à certaines sources. Voir les facteurs de plus en plus présents dans Google comme la géolocalisation, et le « social search » (résultats en fonction des activités des membres d’un même réseau dit social).

 

 

 

Etape 4 : lecture de l’information sur une source sélectionnée

 

Paul fait alors son choix, et sélectionne un blog/forum/site d’avis (peu importe ici) qui semble pouvoir lui fournir les informations demandées. Et là, de nombreux autres facteurs d’influence sont présents :


 

Influence-Web-Etape-4.jpg


 

Plusieurs contenus informationnels peuvent ici influencer son choix, son opinion sur un produit ou service. Tout d’abord l’article principal de la source, celui qui présente le produit/service (la mise en contexte).  Ce contenu est lui-même tributaire d’autres critères, qui peuvent être la mise en page (corps gras, titres, les liens pointant vers d’autres contenus, etc.), le ton et l’opinion exprimés par l’auteur, la crédibilité et l’expertise attribuée à ce même auteur, voir tout simplement son « identité numérique ».


Viennent ensuite les commentaires produits par les autres internautes, avec les mêmes questions de légitimité, d’identification du commentateur, etc. Et tout simplement le fait que l’information voulue se trouve ou non sur ce site web (avec la formulation voulue, la finesse d’analyse attendue), ou encore les capacités de concentration et le temps de lecture que s’accorde Paul.

 

 

 

Etape 5 : Multiplication des sources d’information

 

Paul étant un internaute plutôt averti, et surtout ayant besoins d’un certain volume d’informations pour orienter son choix, il cherche donc de nouvelles sources.



Influence-Web-Etape-5.jpg


 

Et l’action se répète autant de fois qu’il y a de sources visitées, de recherches faites… Avec un impact plus ou moins fort de chacune de ces « visites », une certaine expérience qui se crée avec des informations plus marquantes que d’autres (aspect fort de la mémorisation, assistée par des technologies ou non), des détails qui marquent mais varient d’une personne à l’autre… Mais aussi avec un « trajet » d’une information à l’autre qui peut varier : liens hypertextes, accès direct à une source connue, etc.


C’est donc la multiplicité de ces informations qui vont (entre autre) influencer le choix de Paul. Ce n’est pas seulement une ou plusieurs sources, un ou plusieurs auteurs, aussi médiatisés soient-ils. Mais bien la façon dont Paul va intégrer ces informations à sa prise de décision, leur attribuer une certaine valeur.

 

 


L’influence comme déambulateur des stratégies web ?

 

(Suite du dialogue)


==> Donc on ne peut pas évaluer de manière précise quoi/qui  influence qui/quoi…


==> Non, c’est une sorte de ragoût cognitif… Mais l’on peut évaluer de manière plutôt fiable certaines choses :

=> L’audience d’une source : followers, fans, volume de visites… Ce que font très bien Klout ou d’autres outils

=> La visibilité d’une source sur un moteur de recherche

=> L’autorité de la source (voir son autoritativité) : est-elle reconnue dans une communauté précise, considérée comme experte sur un sujet, recommandée par d’autres…  Le degré d’interaction entre l’auteur de la source et son public ou sa communauté, le réseau qu’il se constitue...

=> Le parcours utilisateur sur une  source : d’où vient l’internaute, où à t-il cliqué pour arriver à cette page, combien de temps est-il resté, etc.

=> La médiatisation d’un message : a-t-il été repris de manière massive ou non, par qui ou quoi, avec quelle déformation…

En fait, c’est  l’alchimie entre l’ensemble de ces informations, de ces facteurs d’influence, qui permet de se donner une idée de ce qui influence ou non une personne sur ou par le web. Le problème, c’est qu’à l’heure actuelle on se concentre plus sur l’émetteur du message que sur son récepteur.


==> Un peu comme au supermarché : on place en avant sur les rayons certains produits, mais si je veux acheter le moins cher, ou celui que l’on m’a conseillé je fais abstraction des autres.


==> Pas réellement abstraction, tu ne peux pas ne pas les voir. Ou être insensible au packaging, au slogan, etc. Et là aussi tu as été influencée par tes amis, la publicité, tes habitudes alimentaires, etc. Mais effectivement, l’organisation même des rayonnages n’est pas forcément le facteur le plus déterminant.


==> Ça me rappelle  les voyages low-cost : tout le monde sait que c’est de très mauvaise qualité, mais c’est moins cher…


==> Oui, là en l’occurrence le prix est un facteur déterminant.


==> Ou certains hommes politiques, peu importe le fond de leur discours ils représentent des valeurs pour lesquelles je vote systématiquement…


==> Là c’est encore autre chose, on touche plus à la notion d’opinion. Sans vouloir entrer trop dans les détails, on peut voir l’opinion sous trois formes : l’opinion versatile (qui varie au gré de l’humeur), l’opinion argumentée (si on argumente bien, je peux changer d’opinion), et l’opinion ancrée (plus lié à des valeurs, des convictions, difficilement influençable). Mais bref, l’idée est là : tu as des valeurs, des convictions, issues de ta culture ou de ton éducation par exemple, et elles influencent fortement tes actes, tes choix, ta vision du monde.


==> Difficile de mesurer cela… ou de l’influencer donc. Il n’y a pas de méthode fiable pour influencer une personne sur ou grâce à Internet ? Ou pour savoir si celle-ci a été influencée ?


==> Si par « fiable » tu entends « qui marche à tous les coups », non. Il existe de nombreuses méthodes en communication pour évaluer l’influence d’un message sur quelqu’un, mais généralement  elles sont déclaratives, et donc après coup…


==> Alors, au final, dire qu’une organisation peut influencer un consommateur, c’est un peu surévaluer ses capacités de communication ?


==> Tout à fait (tu m’impressionne mamie) ! L’influence et les « influenceurs » (les sources médiatisées, les leaders d’opinion) sont aujourd’hui plus une béquille des stratégies sur le web, qu’un réel atout. Le fait de pouvoir mesurer et chiffrer rapidement les résultats laissent à penser que leur impact est réelle et déterminante…


==> Et bien, il y a encore du boulot…

 


 

Au final...

 

Faire appel à ma grand-mère n’avait que pour objectif de créer un dialogue fictif (même si vous avez déjà dû le remarquer, j’aime bien ça ). Ou de vous faire partager mon talent inouïe pour les dessins (de l’anti-infographie en l’occurrence).

Mais pour souligner qu’un concept complexe n’a pas besoins d’être forcément expliqué de manière compliquée ! Et ce, sans forcément rechercher le jargon parfois trop présent sur le web, surtout pour l’expliquer à des organisations qui ont en un vrai besoin.

 

L’influence peut être vue comme un ensemble de facteurs informationnels venant modifier la perception qu’un individu a de son environnement, d’une autre personne, d’une organisation, etc. La question n’est pas alors uniquement de savoir qui ou quoi impacte le plus cet individu. Mais de se questionner sur la manière dont cette information, ce facteur d’influence, peut être gérée, utilisée dans une stratégie de communication sur le web.


Trop souvent confondue avec la médiatisation (ou pire la publicité), l’influence sur le web nécessite un peu de modestie : on ne cherche pas des « sources influentes », mais des sources participant au processus de modification de la perception qu’un individu a d’une organisation. Etre entendu, être écouté et être suivi son des choses différentes. Faire croire que le web se suffit à lui-même est un risque à long terme. Et surtout, penser sa stratégie web comme on penserait le rayonnage d’un supermarché (visibilité absolue, orienter au lieu de canaliser, etc.) démontre vite ses limites.

 

Bref, vous l’aurez compris, l’influence ne doit pas être le but recherché, mais la conséquence d’actions déjà mises en place, aussi bien sur le web que hors-web. Et évaluer le nombre de fans, de liens, de followers, etc., est toujours utile, mais réduire l’influence à ça ne sert pas à grand-chose (à part vendre des outils et des prestations bien entendu).

Penser à l'utilisateur avant toute chose (se mettre à sa place, et pas dans sa tête), aux différents leviers cognitifs qui influencent sa perception, et voir comment les mettre en cohérence peut être utile. Définir sa straégie d'influence sur le web nécessite souvent de commencer par définir ses "cibles", plutôt que de focaliser sur les portes voix.

 


Si le web nécessite de repenser certains métriques informationnels, gageons que l’influence soit vu comme un ensemble de facteurs à évaluer, hiérarchiser et mettre en contexte. Et pas seulement comme un tout unique et applicable aux sources les plus visibles…

 

Et vous, comment expliqueriez-vous l’influence sur/du web à votre grand-mère ? Sa mesure vous semble-t-elle possible ?

Repost 0
15 mars 2011 2 15 /03 /mars /2011 19:13

Ondes.jpgLa veille est souvent présentée en un cycle en 4 étapes : définition des objectifs, collecte, analyse et diffusion. La collecte fait l’objet de nombreux articles (surtout au niveau outil), mais il arrive parfois de ne pas assez mettre l’accent sur la diffusion (enfin, au-delà de l’outil encore une fois). Allons plus loin en partant de ce postulat : et si la collecte d’informations, et encore plus d’opinions, devait être pensée en fonction de la diffusion et non des capacités de collecte et de traitement ?!...

 

 

 

Tout d’abord, concentrons nous sur la veille en e-réputation (et/ou d’opinions) qui, comme le souligne Christophe, diffère souvent en terme de fonctionnement et d’objectifs de la veille dite stratégique (concurrentielle, brevets, juridique, etc.).

 

Ensuite partons d’un premier constat : le web est synonyme de « temps réel », mais il existe encore peu d’organisations qui ont la capacité de traiter les informations en temps réel, et encore plus de définir des objectifs stratégiques ou tactiques en fonction des fluctuations d’informations, ou d’opinions.

De plus, et il est toujours intéressant de le rappeler, l’information devient stratégique par son utilisation (elle ne l’est pas par nature) et une veille doit servir d’appui à une prise de décision. Autrement dit, collecter, trier et analyser de l’information qui ne sera pas réutilisée ensuite, ou qui n’atteindra pas les bonnes personnes en interne, revient… à ne rien faire du tout !

 

Dans une conférence à laquelle j’ai participé il y a quelques mois, l’un des intervenants soulignait que le marché français de la veille c’était principalement structuré autour des éditeurs de logiciels (non sans créer le débat dans la salle). Sans être à 100% d’accord avec ce constat, il est pourtant réaliste de souligner qu’à l’heure actuelle la veille et la recherche d’informations sont souvent abordées par l’angle de la collecte (toujours plus de sources, d’outils puissants, etc.), un peu d’analyse (traitement sémantique) et très peu par la diffusion.

 

Car même si les principaux outils permettent aujourd’hui une diffusion des informations collectées, que ce soit par la forme (graphiques, cartographies, etc.) ou par la mise en place de plateformes dédiées, cette étape nécessite d’être pensée en amont de toute collecte. Lors de la définition des objectifs.

 

 

Pas de collecte sans diffusion

 

Pour les plus constructivistes d’entre vous, nous pourrions presque parler de récursion. A savoir que l’on ne peut (dans une vision systémique) disjoindre la cause de l’effet, « les effets étant eux-mêmes producteurs et causateurs de ce qui les produit ».

 

Plus pragmatiquement, une collecte d’information doit être en adéquation avec la capacité de traitement et de réutilisation de l’information qu’elle génère. Qui plus est si l’on parle de surveillance de la réputation en ligne, où le stockage (aspect documentaire) de l’information à une importance moindre, l’opinion étant sans cesse fluctuante.

 

Et c’est d’ailleurs cela qui révèle la réelle valeur ajoutée d’une veille efficace : son rôle dans d’autres stratégies de l’organisation. S’il fallait faire une analogie, imaginez que vous constituez des dictionnaires, là où seuls certains mots ont une réelle utilité ? Bien entendu, l’ensemble du dictionnaire pourra être utilisé par la suite… Mais si le langage change constamment (comme les usages et technologies du web) alors il s’agit plus d’une perte de temps (même si le travail est passionnant) que d’un réel service rendu à l’organisation.

 

Un « bon veilleur » doit donc être en mesure d’assurer une diffusion optimale des informations qu’il collecte. Qui plus est dans une optique de gestion de la réputation en ligne, où le flux tendu à peu d’intérêt (on alerte qu’en cas de risques ou d’opportunités). Car soyons réalistes : aujourd’hui n’importe qui est en capacité de collecter de l’information sur le web, il y a foisonnement d’outils, et même de curators…

 

Mais le fait de connaitre précisément le mode d’absorption et de circulation de l’information au sein d’une organisation, d’évaluer les capacités de ses commanditaires à gérer et réutiliser une information, nécessite de s’impliquer différemment et de mettre en avant ses capacités de gestionnaire de l’information, et de communiquant (voir de lobbyiste dirons certain(e)s).

 

C’est d’ailleurs, petite aparté,  ce en quoi l’intelligence économique est une vision intéressante de la gestion de l’info : voir l’information comme un levier de la connaissance. Et qui dit connaissance dit perceptions différentes de « l’objet » à appréhender. Il serait d’ailleurs intéressant de faire un test (si ce n’est déjà fait ?) : la même information donnée à plusieurs organisations sur le même secteur d’activité, et la façon dont cette information est ensuite utilisée dans une stratégie visant à la même fin. A mon avis, les résultats seraient assez différents…

 

 

 

La surcharge cognitive est  à évaluer

 

La recherche de l’exhaustivité est souvent le trait le plus flagrant d’une stratégie de veille dans laquelle la diffusion n’a pas été vue comme un facteur essentiel du mode de collecte et d’analyse. On recherche tout pour être sûr de ne rien oublier. On analyse tout de la même manière en pensant que cela permettra à chacun de s’approprier de manière optimale l’information.

On en oublie alors que les individus ne sont pas égaux face à l’information, que chacun ne traitera la même donnée de manière similaire, que le seuil de tolérance à l’information n’est pas le même pour tous.

 

Dans un récent article repris par Owni Sciences, l’auteur présente les différents biais de notre cerveau dans sa capacité à mémoriser et traiter l’information. Parmi ceux présentés, il est intéressant d’en souligner un concernant la rationalité des « leaders » dans leurs prises de décisions : « la confiance d’un leader n’est pas fondée sur l’anticipation de l’effet domino de sa décision. Les leaders agissent de manière décisive avec une morale clairvoyante dans un état d’ignorance. »

 

Un décisionnaire, un leader (contrairement à un gestionnaire), prend donc ses décisions avec un minimum d’informations. Il fait confiance à son « instinct » plus qu’aux informations qu’il va pouvoir capter explicitement de son environnement. Alors quel intérêt de lui soumettre un fort volume de résultats ? Quel intérêt de structurer sa collecte sur d’hypothétiques signaux faibles là où un minimum d’informations paraissent essentielles ? Pourquoi noyer ses collaborateurs sous un flot d’informations qui à 90% leurs seront inutiles (au mieux intéressantes) ?

 

A l’heure où beaucoup parlent de supprimer l’e-mail (sans se poser la question de l’usage de celui-ci, mais passons), il serait peut-être plus exact de penser à la suppression des informations inutiles… Et, encore une fois, c’est ici qu’intervient le veilleur. C’est à lui d’évaluer la capacité de ses collaborateurs et commanditaires à gérer de forts volumes d’informations, à mettre en adéquation ses capacités de collectes et de tri au système de diffusion interne de l’information. Au risque de travailler de manière autiste, tout en cherchant éternellement le Graal : son ROI.

 

 

 

DSI, mon ami !

 

La diffusion de l’information peut donc être vue comme un facteur essentiel de définition des modes de collectes, de tri et d’analyse (en bref laissons un peu de côté les outils). Celle-ci doit être définie en fonction de la capacité de chacun à traiter et utiliser ces informations.

 

Mais au-delà il faut aussi se poser la question du support de diffusion de l’information. Nous ne parlons pas ici de la forme, une jolie cartographie ayant parfois moins d’intérêt qu’une liste en plusieurs points.

 

Qui dit support dit accessibilité. Qui, au sein d’une organisation (les agences étant moins touchées), n’a pas déjà eu ce discours irréel avec son DSI ou responsable de la sécurité :

 

=> DSI : Donc vous voulez que l’on vous laisse un accès libre au web… Pour quoi faire ?

=> Veilleur : ben mon boulot :-)

=> DSI : ah, et votre boulot nécessite d’aller sur Facebook, Twitter et Youtube ?!

=> Veilleur : oui, car en fait je regarde ce que les internautes expriment concernant notre entreprise

=> DSI : mouais, c’est plutôt une perte de temps et un risque, si on bloque ce genre de gadgets ce n’est pas pour rien !

=>Veilleur : …

 

 

Bref, l’entreprise 2.0 à encore du chemin devant elle… Et si la collecte est directement impactée par le  blocage de certains outils ou certaines sources, la diffusion de l’information aussi.

 

Mais que ce soit pour vos commanditaires en interne comme pour vos clients en tant qu’agence, la superbe plateforme à laquelle vous avez pensé ne collera pas forcément au cahier des charges en matière de sécurité informatique. D’où la nécessité d’adapter les informations que l’on diffuse au format le plus accessible par les personnes qui sont les cibles de ces informations.

 

Et même si vous travaillez avec/pour une « organisation conversante » (wikis, réseaux sociaux internes, etc.) le flux d’informations que vous diffusez doit être en adéquation avec le flux de conversations de ces outils. Au risque de noyer vos collaborateurs ou, à l’inverse de ne pas assez attirer leur attention.

 

Notons au passage, en matière de support, que la majorité des agences en e-réputation on fait leur choix : le Power Point. Ou comment faire la synthèse d’informations visant à prendre des décisions. Avec, bien évidemment, les mêmes formats pour tous : graphiques, images, etc. Etant donné que les informations qui doivent remonter vont-elles aussi être synthétisées plusieurs fois, le Power Point permet de supprimer rapidement les capacités argumentatives d’une veille, en la réduisant à quelques mots-clés positionnés près d’un graphique…

 

 

 

Se poser les bonnes questions pour préparer la diffusion

 

Préparer la diffusion de l’information est donc essentiel, au même titre que la définition des objectifs globaux, que  le choix de l’outil pour la collecte, ou encore des méthodes d’analyse des résultats.

 

Chaque organisation étant différente, avec une maturité et une culture informationnelle variant du tout au tout, pas de bonnes recettes encore une fois mais quelques questions qui, espérons-le, permettront de mettre en adéquation l’ensemble des étapes du cycle de veille. Voir « casser » cette analogie au cercle, le découpage par étapes faussant parfois l’enjeu stratégique, ainsi que les liens de causalité, de chacune d’entre elles.

 

 

Les questions à se poser pourraient (doivent ?) être les suivantes :

 

==> Quelles sont les cibles de mes informations ?


==> Qui va les traiter ?


==> Quel est le niveau d’expertise des personnes réutilisant les informations ?


==> La collecte d’information doit-elle être exhaustive ?


==> Quel est le temps accordé par mes collaborateurs au traitement de l’information que je leur diffuse ?


==> Quel support de diffusion ?


==> Ce support est-il « universel » (ie accessible à tous dans l’organisation) ?


==> Quel niveau d’argumentation dois-je développer ?


==> Quel niveau de synthétisation dois-je proposer ?


==> Faut-il mémoriser certains résultats ? Sur quel(s) support(s) ?

 

 

 

Au final…

 

Si personne ne capte vos informations et les utilisent alors il n’y a pas réellement d’information… Si votre veille consiste seulement à collecter et mettre en forme des données avec des objectifs vagues, alors pourquoi veiller ?

 

Si vous achetez une formule 1 (un bel outil de veille) pour au final rouler seulement dans des rues piétonnes (organisations saturées par l’info) vous allez être vite frustrés. Mais vous risquez en plus de faire peur à vos collaborateurs qui vous verrons plus comme générateur de bruit que comme moyen d’accès à l’information stratégique.

 

La capacité de collecte et d’analyse est donc inhérente à celle de diffusion, et il semble souvent utile d’intégrer dès le départ ce constat (et de manière réaliste) avant de se lancer. Et qui plus est si vous veillez sur la réputation d’une organisation : tout le monde est-il prêt à entendre ce que les internautes ont à dire ?...

 

 

Et vous, comment abordez-vous la phase de diffusion dans votre veille ? Est-elle mise en corrélation avec vos capacités de collecte et de traitement ?!

Repost 0
7 février 2011 1 07 /02 /février /2011 13:26

Buzzword.jpgCurator, community management, influenceurs… De nombreux termes que votre logiciel de traitement de textes doit souvent souligner, et ce pour une raison simple : il s’agit de néologismes générés pour et par le web. Ces « buzzwords » formant un jargon propre au web, sont souvent décriés mais toujours utilisés, alors voyons rapidement les pours et les contre de certains de ces termes.

 

Buzzword est tout d’abord un buzzword… Chaque nouveauté, qui plus est lorsqu’elle peut revêtir un aspect monétaire (ou marketing) intéressant, doit pour se démarquer des autres apparaître comme totalement neuve, ou tout du moins adaptée à une réelle attente, de réels usages. Et le web à pour particularité de produire des nouveautés de manière quasi-exponentielle : que ce soit au niveau technologique ou au niveau des usages, l’adaptation de concepts vieux comme le monde ou encore le développement de réelles innovations de rupture nécessitent des termes appropriés pour que l’on se les accaparent mieux.

 

Et qui plus est lorsque le business fait son entré. Vendre « des influenceurs du web 2.0, community manager d’internautes sur les média sociaux » donne un accent de vérité (et de compétence) à une agence, plus que faire des « relations presse en ligne ». Dans un contexte informationnel où l’attention est un actif immatériel à capter, où « temps réel » rime rarement avec « pérenne », il faut savoir très vite employer les derniers termes à la mode (définition schématique et française de « buzzword »), s’en servir comme slogan pour rendre sexy et magique l’application et le développement d’usages/technologies parfois nouveaux ou novateurs, mais souvent issus d’une évolution lente et réfléchie.

 

 

Au-delà, si ces termes sont utilisés, c’est qu’ils ont une certaine utilité (jusque là, pas besoins de buzzer). Car nous vivons dans un monde de normes et de labels, où l’on nous apprend très jeune que chaque chose  a un terme qui lui est associé pour la désigner, qu’un concept regroupe un ensemble d’éléments déjà définis sans lesquels on ne peut avoir de point de repère. Et sur le web, des repères il en faut ! Il faut pouvoir  communiquer et se comprendre, il faut pouvoir se mettre en concurrence sur des offres globales (au niveau des acteurs économiques), il faut pouvoir créer des classements, des métiers, des communautés, etc.

 

Comme le souligne d’ailleurs Dominique Cardon dans son très bon ouvrage La démocratie Internet, le web renverse le fonctionnement habituel de validation de l’information et de publication : on diffuse du contenu qui est validé après sa diffusion (et non avant) par les lecteurs et les acteurs légitimés d’une communauté web ou d’un réseau (et non plus par un comité éditorial par exemple). D’où la difficulté, entre autre, d’arriver à un consensus, à une acceptation tacite de certaines terminologies…

 

Bref, faut-il avoir peur d’employer des buzzwords ? Sont-ils le signe d’un suivisme passif des derniers termes inventés par des marketeurs-blogueurs en mal d’influence et qui buzzent ? Ou alors est-ce un passage nécessaire pour une certaine normalisation des pratiques du web, la juste désignation de pratiques bien réelles et qui nécessitent d’être nommées afin d’être mieux comprises et partagées ?

 

 

Plutôt que de prendre partie pour l’une ou l’autre de ces approches (assez binaires je vous l’accorde, et par ailleurs déjà faites sur ce blog), je vous propose de prendre 5 termes, 5 buzzwords usités couramment (et presque entrés dans le « patrimoine sémantique du web »), et de regarder quels sont les arguments en faveur ou en défaveur de leurs usages.

 

Ces arguments sont une rapide synthèse de ceux souvent observés ici ou là, sur le web ou ailleurs (conférences, livres, etc.), et ce afin d’ouvrir un débat plus large sur l’acceptation et l’emploi (à bon escient ou non) de ces différentes terminologies.

 

 

 

Le web 2.0


 

Le terme « web 2.0 », après avoir été Le buzzword il y a 6-7 ans, est entré dans le langage courant des internautes, consultants et autres blogueurs afin de désigner cette « (r)évolution » du web, de ses technologies et de ses usages. Aujourd’hui la majorité des personnes (enfin en tout cas celles qui s’intéressent de près à Internet) usent de cette appellation pour parler de l’écosystème numérique Internet composé de blogs et autres « réseaux sociaux », d’un passage de la communication du « one to many au many to many » (oui, oui, un bon buzzword est anglophone, et s’explique par d’autre termes anglophones). Pourtant, ce terme soulève encore quelques controverses…

 

Pour : Si nous prenons Internet et les technologies web avec un certains recul historique alors nous pouvons effectivement constater qu’il y a eu une évolution. Les technologies permettent aujourd’hui à « n’importe qui » de produire et diffuser du contenu en ligne, là où il y a encore 5 ans il était nécessaire de se plonger dans du code, des bases de données SQL  et autres scripts PHP. Le web n’est d’ailleurs plus statique, au sens que les contenus sont devenus maintenant interactifs, pouvant être commentés, rediffusés, modifiés, etc. Et surtout, surtout, de nouvelles technologies se démocratisent sous la forme d’outils de publication de contenus : blogs, forums, wiki, réseaux sociaux… Avec une certaine standardisation, l’utilisation de protocoles « universels » comme le RSS par exemple.

Qui plus est, les usages ont suivis : aujourd’hui il y a de nombreux blogueurs, des milliards de vidéos publiées chaque années, des réseaux comme Facebook où sont présents des centaines de millions de personnes, une défiance envers les contenus non UGC, etc. En résumé, des chiffres et des technologies pour justifier cette accolade du terme « 2.0 » à « web ».

 

 

Contre : Ces technologies dites 2.0 ne sont pas apparues il y a 5 ou 7 ans… Les blogs existent depuis la fin des années 90, les forums et wikis depuis le milieu de ces mêmes années. Il n’y a pas eu de bouleversements technologiques  à proprement parlé, mais juste une adaptation aux diverses évolutions techniques découlant naturellement de l’avancée de l’Internet. Aucune innovation de rupture donc, juste le développement et la simplification de certains outils. Simplification assez limitée d’ailleurs, puisqu’à l’heure actuelle de nombreuses plateformes de blogs nécessitent un minimum de connaissances et de pratiques de certains langages de script pour arriver à un résultat convenable.

De plus, la production et la diffusion de contenus n’est pas un phénomène lié spécifiquement au web 2.0 (on publiait avant l’explosion des blogs, on conversait avant l’apparition des réseaux sociaux… même avant Internet !). Ce qui amène ce développement des usages et plus lié à la démocratisation de l’accès à Internet, qu’à un réel effet de mode ou l’apparition d’outils faciles d’accès.

 

 

 

Les médias sociaux


 

Les « média sociaux » sont la résultante (ou la raison ?) du web 2.0. Aujourd’hui, sur le web, on ne communique pas de la même façon sur les médias mainstream que sur les média sociaux. Ces médias (s’ils le sont réellement d’ailleurs) existent pour et par les internautes, les contenus et interactions qu’ils génèrent par leur utilisation.

 

Pour : Comme pour le web 2.0, les avancées technologiques liées à ces nouveaux outils de production, partage et diffusion de contenus nécessitent d’être soulignées par l’emploi d’une nouvelle terminologie. Chacun devient producteur d’informations, informations accessibles par ailleurs gratuitement contrairement à la majorité des médias « traditionnels ».

Et surtout, ces médias sont pensés et construits pour inciter aux interactions sociales entre utilisateurs : une plateforme comme YouTube permet à ses utilisateurs, au-delà de la diffusion de vidéos, d’interagir entre eux (pour ne pas dire communiquer), de partager des points de vue communs, bref de nouer une nouvelle forme de lien social.

Ces médias voient aussi le développement d’une nouvelle forme d’intelligence collective (Wikipédia en étant un bon exemple), où la validation des contenus est ouverte à tous, où le débat ne risque pas d’être confisqué par les gardiens traditionnels du savoir. Chacun peut développer sa propre forme de sociabilité en appuie avec l’ensemble des internautes souhaitant interagir directement avec lui. En résumé, revaloriser l’individu, son point de vue, son approche d’un sujet, et ne plus le noyer dans la « masse » des médias traditionnels où il n’est pas représentés (et entendu).

 

Contre : Là aussi, les avancées technologiques peuvent être facilement contestées (comme pour le web 2.0). Mais surtout cette idée de « social » accolée un peu partout sur le web (« social shopping », « social CRM », etc.), et qui laisse sous-entendre qu’un média, un support de diffusion de l’information ou d’appuie à la communication, peut être social par nature. Car faut-il simplement permettre le débat et l’interaction pour rendre un support social ? L’erreur étant souvent de considérer que de simples interactions numériques (type « j’aime » sur Facebook, ou les RTs sur Twitter) sont une forme de communication permettant de développer du lien social, de générer une relation forte entre les interlocuteurs leur permettant de mieux vivre ensemble en société.

 

 

E-réputation

 


Terme (sur)employé sur ce blog, dont une tentative de définition avait déjà permis de mettre en avant certaines contradictions. Aujourd’hui, le terme « e-réputation » est devenu un classique du bon langage d’agences, utilisé d’ailleurs au quotidien par de nombreux internautes.

 

Pour : Si le e-commerce désigne la dématérialisation des opérations commerciales, alors l’e-réputation pourrait désigner la (re)matérialisation d’une perception jusque là difficilement évaluable. Là où la réputation (concernant une organisation par exemple) était encore il y a quelques années (avant le « web 2.0 » en fait) quasi-impossible à évaluer en dehors d’enquêtes par panels classiques (avec toutes les contradictions associées), le web vient changer la donne. Aujourd’hui, on ne peut toujours pas entrer dans l’esprit des individus, mais on peut observer (voir quantifier) de manière plus fine et segmentée la façons dont ils expriment, ils restituent l’image qu’ils perçoivent d’une organisation.

De plus, dans une approche systémique, cette capacité à diffuser leurs opinions concernant une organisation sur le web influe directement sur les autres internautes, soit parce qu’ils cherchent eux-mêmes des informations sur cette organisation, soit parce qu’ils ont développés un lien social (grâce aux médias sociaux donc)  avec l’émetteur de l’opinion. Le bouche à oreille devient formalisé et public, la perception est donc identifiable voir analysable.

 

Contre : La réputation ne peut se cantonner au web. Il serait réducteur de croire que seuls les contenus présents sur le web peuvent influer sur les perceptions qu’une personne à pour une organisation. Le web, 2.0 ou non, n’est qu un moyen d’expression de plus, un média qui ne développe pas ses propres formes de perceptions mais qui fait parti d’un tout, impactant à des niveaux diverses l’image de marque d’une organisation. Il est donc réducteur, voir dangereux, de ne se focaliser que sur ce qui est diffusé sur le web.

Par ailleurs, l’e-réputation est devenu un mot valise employé à tout va par les agences web. Car si certains essayent de définir des « bonnes pratiques » (ou plutôt des méthodologies) on s’aperçoit très vite que la gestion de la réputation en ligne fait appel à de nombreuses approches…et que chacun peut développer la sienne. Gagner en visibilité (SEO), écouter les internautes (veille), faire connaître des produits (marketing), répondre à des internautes (communication) sont autant d’approches que l’on peut mettre sous la bannière « e-réputation ». Il parait alors difficile de définir où est la qualité dans les méthodes proposées, et surtout si tout ce qui touche à la communication sur le web n’est pas au final de l’e-réputation…

 

 

 

Le community management

 

 

Sur le web 2.0, et grâce aux médias sociaux, les internautes se regroupent (instinctivement ou non) sous forme de communautés. Dans une optique de gestion de l’e-réputation, et globalement de communication/marketing sur le web, il parait intéressant de gérer ces communautés, à savoir faire du « community management ». Et aujourd’hui, de plus en plus de community managers voient le jour, et de plus en plus d’organisation gèrent des communautés sur le web… ou pas !

 

Pour : Que ce soit sur les forums, les réseaux sociaux ou encore les blogs, la présence de communautés thématiques d’internautes est une réalité. Tout comme une communauté d’experts en interne, ou encore une communauté de fans pour une star de la chanson, il est utile de « rebondir » sur ces communautés web  pour différentes raisons : vendre un produit/service, faire participer ces internautes aux développement de la marque, etc.

Le tout étant de gérer cette communauté au mieux, à savoir définir et animer le support de regroupement de cette communauté, lui diffuser de l’information pertinente, la faire jouer, lui offrir des cadeaux, dialoguer avec les détracteurs…

 

Contre : Gérer une communauté, qui plus est sur le web, est un non-sens en soi : si les internautes se regroupent par affinités, c’est principalement pour définir librement la manière dont ils souhaitent partager et échanger autours d’une thématique (fut-ce-t-elle de marque). Leur imposer des règles, les orienter trop fortement vers les intérêts et les objectifs d’une organisation, parait illusoire sur le long terme.

Il parait peut être plus réaliste (et moins buzzword) de parler de modération, voir d’animation ou d’orientation, que d’une gestion d’une ressource humaine (et virtuelle) comme l’on parlerait des stocks de fournitures (très très schématiquement :-)). Car si certains trucs et astuces marchent, il n’y a pas de règles établies permettant de définir une méthode de gestion efficace minimale.

 

 

Curator

 

« Curator », le petit dernier des buzzwords. Globalement, l’idée que chaque internaute devient un relais, un agrégateur d’informations pour les autres internautes, les membres de son réseau ou de sa communauté.

 

Pour : À l’heure de l’information en temps réel, de l’abondance de données numériques, les filtres algorithmiques (moteurs de recherche par exemple) ne suffisent plus. La nécessité de passer par ce que l’on nomme parfois la recommandation (sociale bien entendu) afin de lire des informations déjà triée et qualifiée, devient de plus en plus pressante. Là où certains internautes sont spécialistes d’un domaine, ou tout du moins connaisseurs, d’autres sont à la recherche d’informations pertinentes qu’ils ne savent trouver. Arrive alors le lien logique, le curator, qui part son activité de veille frénétique sur une ou plusieurs thématiques données va faire la différence en proposant du contenu de qualité, qu’il n’ pas produit mais qu’il a su repérer.

La « curation » a toujours existée (sur le web ou ailleurs), elle ne fait que se formaliser, et permet surtout de qualifier de nouveaux acteurs du web : ceux qui ne produisent pas de contenus mais ne font que l’agréger et le partager de manière stratégique. Ils deviennent donc des piliers essentiels au community management, mais aussi à la gestion de la réputation en ligne puisqu’ils peuvent être représentatifs de ce qui se dit ou se partage concernant une organisation.

 

Contre : Au-delà de la non traduction possible en français de ce terme, la curation est surtout un nouvel argument pour recycler les plateformes de bookmarking en nouvel eldorado des internautes en recherche de visibilité et « d’influence » sur un domaine.

Si le curator a toujours existé, il n’en reste pas moins un internaute sachant utiliser les médias sociaux pour capter l’info essentielle,  et surtout ayant le temps pour cela. De plus, le curator ne produit pas de contenus à valeur ajoutée, il vient  ressasser éternellement les mêmes informations sans pour autant leur donner forcément plus de sens.

Au final, le curator ne propose comme valeur ajoutée que le prisme de son propre point de vue, laissant aux lecteurs l’évaluation de la pertinence de ce qu’il diffuse, au risque de ne générer aucune valeur du tout…

 

 

Au final…

 

J’aurais pu aussi entrer dans cette liste d’autres buzzwords comme « personnal branding », « influenceurs »…ou « buzzword » ! J’ai juste sélectionné les plus courants, et vous laisse les commentaires pour en aborder d’autres (ou à l’occasion de futurs billets).

 

A la question faut-il en avoir peur, la réponse (en tout cas ma réponse) pourrait être : non, à condition de les utiliser à bon escient.

 

Car si ces termes anglophones sont aujourd’hui l’apanage des consultants et autres vendeurs de rêves numériques, il n’en reste pas moins qu’ils font sens à de nombreux interlocuteurs. On s’aperçoit d’ailleurs que ces termes sont remis en question en fonction de la légitimité (et non pas l’expertise) des personnes qui les emploient. Reste de notre culture de l’information publique contrôlée, un concept non-scientifique ou non-issue d’un « professionnel reconnu » sonne automatiquement creux aux oreilles des internautes avertis.

 

Mais comme dans buzzword, il y a buzz, plus on utilise ces termes, que ce soit pour les critiquer ou les encenser, plus ils rentrent petit à petit dans le patrimoine sémantique commun du web et de ses utilisateurs/professionnels.

 

 

L’idée, au final, est donc de comprendre la signification de ces termes, le sens et les non-sens qu’ils revêtent, et de les utiliser dans le cadre d’échanges nécessitant des points de repères commun (la base de la communication en somme : s’adapter au niveau de compréhension du récepteur).


 

Et comme dit en introduction, cet article vise surtout à ouvrir au débat, et à connaître votre point de vue sur ces différents termes, les opinions pour ou contre leur emploi.

 

 

Enfin, pour aller plus loin et nourrir votre réflexion, quelques articles (critiques) sur ces sujets :

 

http://antoine-dupin.com/leblog/la-guerre-des-neologismes-la-defaite-du-sens/

 

Management 2.0 : le curator, bullshit marketing ?

 

Le mythe du Community Management ne survivra pas à la réalité du Trust Management

 

 

Et vous, que pensez-vous de ces buzzwords ?! Comment les employez-vous au quotidien ?

 

Repost 0
31 janvier 2011 1 31 /01 /janvier /2011 11:47

ErepCM.gifRetour sur investissement, chiffre d’affaire, e-réputation et community management sont des concepts souvent difficiles à mettre en adéquation. Là où le sujet est (trop ?) souvent théorisé, voici une approche pragmatico-pratique présentant les principaux enjeux de la gestion de la réputation en ligne pour un site de e-commerce.

 

 

Comme promis la semaine dernière, voici la suite de  l’interview d’Adrienne Alix (après Wikipédia: quels apports à l'e-réputation et au community management ?) axée aujourd’hui sur ses pratiques au quotidien de community manager, la façons dont elle appréhende la relation client dématérialisée.

 

L’intérêt de présenter la vision d’Adrienne sur ce sujet (au-delà du partage de connaissances), est qu’elle n’a pas (à la base) de formation web ou communication. Avec ses expériences passées et sa pratique de Wikipédia, elle s’est lancée dans l’aventure du community management et de la gestion de l’e-réputation, acquérant ici une réelle pratique, loin de certains buzzwords ou « liste des 50 indicateurs à prendre en compte pour de venir le ROI du web »…

 

Place donc à l’interview !   

 

 

Bonjour Adrienne, peux-tu rapidement te présenter ?

 


Je m'appelle donc Adrienne, j'ai 31 ans, j'habite à Toulouse. Je travaille comme responsable éditoriale et community manager chez Discounteo, un site de e-commerce d'électroménager et high-tech, et pour d'autres sites e-commerce du groupe dont nous faisons partie.  Les gens (et moi-même) ont souvent du mal à définir mon poste. Il y a quelques jours, une de mes collègues m'a définie comme le « couteau suisse » de l'entreprise. Ça me semble assez vrai :-)

 

Mon parcours n'est pas très linéaire... J'ai commencé par faire des études d'histoire. J'ai donc dans mes valises un DEA d'histoire religieuse et 2/3 d'une thèse. J'ai enseigné 3 ans comme chargée de TD à Paris-XIII, où j'ai donné des cours sur plein de choses, l'histoire de l'Italie aux XVIIIe et  XIXe siècle, à la démographie historique, plein de choses passionnantes. J'ai également enseigné l'histoire-géographie un an en collège et lycée. Après cela, j'ai tenté de monter ma boîte (une librairie historique), puis j'ai travaillé comme assistante marketing dans une entreprise de matériel informatique. Je travaille chez Discounteo depuis août 2009.

 

 


Quelles sont tes missions, ton rôle, chez Discounteo ?

 

 

Comme dit au dessus, je fais pas mal de choses. Couteau suisse me va bien :-)

 

Globalement j'ai 4 points principaux dans mon travail, qui prennent plus ou moins de place dans mon emploi du temps selon les urgences.

 

==> Le  community management. Je n'aime pas beaucoup ce mot, un peu trop mis à toutes les sauces à mon goût, mais globalement c'est ça : gestion des interactions sur les forums, facebook, twitter, etc. Je fais remonter les problèmes, j'en gère une partie, j'essaie d'animer  les réseaux qu'on maîtrise. Améliorer un peu le dialogue entre service clients et clients, développer la fidélisation, les retours des clients... Cela m'amène à enquêter, analyser, dialoguer, faire du mailing etc.

 

==> Le rédactionnel. J'ai pas mal travaillé sur le site Internet, sur le blog (un peu endormi ces derniers mois faute de temps), sur du contenu rédactionnel axé sur nos produits. Pas toujours évident d'être disert sur des lave-linge :-)

Mais le rédactionnel, c'est aussi travailler sur tous les mails envoyés automatiquement aux clients, ou sur les modèles de mails du service clients et du SAV : ça rejoint pas mal l'aspect qualité de la relation clients que j'essaie de mettre au coeur de mon travail.

 

==> Le CRM. Toujours la relation clients, mais là je bidouille plus dans les bases de données... Je sors des chiffres, des tendances, des études, des modélisations, de quoi travailler un peu moins dans le quotidien, plus dans la durée, et pouvoir sortir des tendances et des axes de travail commercial ou marketing, ou encore de faire progresser les procédures internes.

 

==> Les tests. Là c'est mon côté couteau suisse le plus marqué : je travaille sur plein de micro-tâches de « débuggage » quotidiens, des tests de nouvelles plateformes, de nouvelles fonctionnalités. Je « prépare » les nouvelles fonctionnalités pour qu'elles soient bien rodées, qu'on ait pu mettre en place les procédures pour le service clients, et ensuite je passe la main. Ce qui me fait beaucoup travailler avec le reste de l'équipe, développeurs, graphistes etc. Je prends également en main tout ce qui peut rentrer sous la dénomination de « gestion de crise », en prenant appui sur ma connaissance des rôles et capacités de chacun en interne.

 

Pour donner un peu de cohérence à tout cela, je dirais que ma place se situe un peu au milieu des autres, et entre l'interne et l'externe, avec comme chapeau général la qualité de la relation clients et du parcours du client sur nos sites et en dehors.

 

 

Cette idée d'interview part d'un commentaire laissé sur CaddE-Réputation. Le secteur du e-commerce est l'un des plus attentif au concept d'e-réputation, puisque l'image que les entreprises de ce secteur reflètent sur le web semble de prime abord avoir plus d'impact sur les ventes que pour une entreprise faisant son CA hors-web. Tout du moins, c'est ce que l'on pourrait penser de prime abord !

 

Au quotidien, vois-tu (ou « ressens-tu ») l'impact de la réputation de Discounteo dans tes échanges avec les internautes ?

 

 

Bien sûr ! L'image que les clients se font de Discounteo détermine a priori tous nos échanges.

Nous sommes une entreprise de e-commerce pas très connue du grand public, mais sur laquelle les gens qui cherchent à s'équiper vont rapidement « tomber » pendant leurs recherches sur des comparateurs, sur Google etc. Comme ils ne nous connaissent pas, ils sont d'autant plus sensibles à la réputation qu'ils vont chercher à connaître. Très souvent mes interlocuteurs se réfèrent à ce qu'ils ont pu lire sur des forums ou dans des commentaires. Pour infirmer ou confirmer, d'ailleurs. Et en prenant parfois comme référence des choses assez anciennes. D'où l'importance que prend la réputation, au long cours : on peut avoir un service impeccable depuis 2 ans, si il y a 3 ans il y a eu une grosse bourde, les gens vont la trouver. Le Web n'oublie rien... Les clients se renseignent plutôt après l'achat qu'avant, et prennent donc le temps de fouiller et d'aller chercher l'information.

 

 

Penses-tu que l'e-réputation (ou la réputation en général) à un impact direct sur le CA de l'entreprise ?

 

 

Oui, je l'avais développé un peu dans le commentaire que tu évoques. Je pense que la réputation a un impact sur le CA, mais pas dans le sens que l'on croit au premier abord.

 

Lorsque je suis arrivée chez Discounteo, le moment était peu agréable : changement complet d'équipe, cela s'est ressenti sur la qualité du service clients. Naïvement je pensais que le CA allait baisser parce que notre réputation baissait dans les forums, que les gens allaient moins acheter en se disant « ah, ça a l'air de mal se passer, je ne vais pas acheter ». Daniel Broche (mon patron), qui est un fin connaisseur du e-commerce m'a expliqué que ça n'était pas aussi simple que ça, et il avait raison.

Voilà comment une mauvaise réputation impacte (à mon avis) le CA d'une entreprise de e-commerce (je parle de ce que je connais, et seulement de ça) : tu as un souci quelconque dans la gestion quotidienne des commandes. Par exemple, un gros retard d'expéditions, ou un bug dans les commandes qui débite 2 fois les clients (oui ça arrive), ou un lot complet d'expéditions qui disparaît dans la nature. De ce fait très concret découle une surchauffe au service clients, qui peut absorber une charge « normale » mais va avoir du mal à tout d'un coup gérer une crise. Le traitement des demandes des clients va donc se rallonger. Il y a les clients directement impactés qui appellent 3 fois par jour ou envoient 10 mails, et les clients non impactés au départ qui sont victimes de cet engorgement, parce que leur demande n'est plus traitée aussi vite que d'habitude.

Par exemple un remboursement fait en une semaine en temps normal va être fait en 2 semaines, une réexpédition ou la simple réponse à un suivi de commande vont être traités moins rapidement. Le client, pas content, va râler sur un forum. Normal. Un autre client, qui ne comprend pas pourquoi son mail n'a pas été traité dans la ½ journée, va finir par chercher sur les forums des renseignements sur nous pour voir s'il faut s'inquiéter. Il tombe sur des messages de clients pas contents, et panique : au lieu d'attendre son remboursement paisiblement, et de ne s'inquiéter qu'au bout de quelques jours, il va penser que si il ne nous rappelle pas 5 fois, on ne le remboursera pas. Donc il appelle. 5 fois. Donc il contribue à l'engorgement du service clients.

 

En quoi est-ce que ça impacte le CA ? Pas dans la prise de commande, puisque cette inquiétude se situe plutôt après la commande qu'avant. Mais dans le coût en personnel que cela va induire chez nous : on va embaucher des personnes en plus pour gérer cet engorgement, ou faire faire des heures supplémentaires au service clients. Ça coûte en priorisation des activités aussi : dans ces périodes « chaudes » je vais me mobiliser beaucoup dessus, au détriment d'autres actions qui auraient pu développer les ventes. Ça coûte aussi en gestes commerciaux : si vous avez fait patienter un client trop longtemps, vous allez plus facilement faire un geste commercial.

 

Si la situation perdure trop, là on peut sans doute voir les ventes impactées. Mais cela n'arrive qu'en second temps, et je vois mal une entreprise de e-commerce se permettre cela aujourd'hui.

 

 

Par rapport à tes propres pratiques pour ton employeur, aux missions que tu effectue, quels sont les indicateurs de mesure de l'e-réputation qui te semblent les plus pertinents ?

 

Je fonctionne avec une série d'indicateurs que je suis quotidiennement ou mensuellement. Ces indicateurs tournent premièrement autour des notations des internautes, sur Fianet, sur Ebay, sur les différents comparateurs, sur les places de marché où nous sommes présents. J'ai des « cotes d'alertes » en dessous desquelles je ne veux pas descendre. Ces notations sont un peu différentes selon les endroits où je les prends : sur Fianet une note à 95% de satisfaction est tout à fait satisfaisante, sur Ebay il faut que je sois au dessus de 97-98%, sur d'autres 90% sera déjà pas mal. Cela dépend de la population qui se rend sur ces sites.

 

Je regarde aussi le volume des interactions : sur les principaux forums, je suis le volume d'activité, positive ou négative. Le principal étant de voir s'il y a surchauffe ou pas, pas tellement de savoir si c'est bien géré ou pas, puisque de toutes façons je gère (je sais que si j'ai 10 ou 20 interactions sur un forums, les 10 ou 20 sont gérées). Je ne suis pas la seule responsable de la réputation de l'entreprise : la qualité du service clients y est pour beaucoup, on ne peut pas faire illusion. S'il y a surchauffe au service clients, ça se verra sur les forums, je vais gérer de mon mieux, mais je ne peux pas tout faire. À moi derrière de faire en sorte qu'on tire des leçons de cela pour améliorer les choses. Certaines situations où on a pu mesurer cette dégradation de réputation ont ensuite mené à des modifications de procédures au service clients. Cela n'est mesurable qu'à moyen et long terme, et rarement avec des chiffres précis. C'est plus un sentiment général de choses qui « tournent mieux ».

 

Dans les indicateurs, je mets également le retour que j'ai sur les enquêtes que je mène auprès des clients et qui vont souvent déboucher sur des témoignages de clients ou des avis sur les produits. Pour moi, une saine réputation alliée à une bonne écoute et une bonne relation avec les clients amène forcément ceux-ci à donner des retours, en commentaires. Et je ne vous fais pas de dessins sur l'importance des commentaires de clients sur un site marchand ou ses produits :-)

Mais je ne m'attache pas simplement à des commentaires valorisables publiquement, je regarde aussi les réponses à des questions précises que je vais poser et qui me permettent de savoir si les actions que nous menons sont bien acceptées ou pas.

 

Mais dans mes indicateurs il n'y a pas, par exemple, de mesure des followers sur Twitter ou des fans sur Facebook.

 

Ce qui est important dans les indicateurs, c'est certes leur mesure à un instant T, mais surtout leur évolution : si une note de confiance baisse très légèrement mais très régulièrement, il y a un souci. Si les interactions baissent brusquement ou augmentent brusquement, ça veut dire quelque chose. Je ne travaille pas spécifiquement pour augmenter ou baisser certains types d'interactions, mais je vais travailler d'une part à maîtriser du mieux possible ces évolutions, ne pas me laisser surprendre, et d'autre part à essayer de les faire aller dans le sens que je veux, ce qui n'est pas toujours facile : ne jamais subir, toujours agir ! Mon objectif n'est pas de nettoyer le web ou de faire parler de nous à tout prix, mais d'avoir en permanence une capacité de prise en main sur ce qui se dit sur nous.

 


 

La mesure d'un ROI te semble t-elle possible ?

 

Un ROI basique « ça coûte tant, ça rapporte tant », non. Si on ne parle que de gestion de réputation, s'entend. Si on parle de tout le reste de mes activités, déjà plus : je peux savoir combien de ventes j'ai apportées par le livechat, je peux mesurer l'impact d'un mailing de fidélisation, ou certaines actions que je mène après mon travail sur le CRM.

 

Tout dépend de ce qu'on fait entrer dans la réputation : si on reste sur la question des forums etc, comme je le disais plus haut, c'est plutôt des économies « en creux » qu'on va pouvoir faire : désamorcer les situations de crise et veiller à ce qu'elles ne se déclenchent pas, c'est une manière d'améliorer le ROI de l'entreprise. Mais je crois qu'il est difficile de dire froidement qu'un community manager = X salariés supplémentaires au service clients + X€ de gestes commerciaux, par exemple. Ou alors il faudrait se lancer dans des analyses extrêmement chronophages.

 

Comme je travaille plutôt sur une qualité générale de la relation clients, qui passe aussi, mais pas que, par la gestion de la réputation, la mesure d'un ROI de la réputation me semble difficile en période normale. Je pense que mon travail contribue à une amélioration globale du ROI de l'entreprise par la fluidité qu'il apporte dans la relation clients.

 

Oui j'ose espérer que mon travail contribue à la bonne santé de Discounteo :-)

 

Merci Adrienne !

 

 

Et vous, comment abordez vous l’impact de l’e-réputation et du community management sur le ROI pu le CA de votre organisation ?! Quels indicateurs prenez vous en compte ?

 

Repost 0
29 novembre 2010 1 29 /11 /novembre /2010 11:31

Cet article est paru dans l'e-book "Tirer le meilleur parti de Twitter" (que je présenterai cette semaine sur le blog), sous le titre  "Twitter : quand son insertion dans l’économie de l’attention devient une assertion pour l’économie de l’information".

 

Evaluer-les-sources2.jpgTemps réel, scoops, rumeurs, mème, influence, médiatisation… Les « concepts » liés à Twitter sont nombreux.  Il parait difficile aujourd’hui de réfléchir au fonctionnement de l’économie dite de « l’attention » sur le web, sans prendre en compte cet outil et ses usages. Mais au-delà de son acceptation comme composante à part entière du paysage numérique actuel, Twitter dévoile une autre réalité économique : pour produire/diffuser de l’information il FAUT être sur Twitter ! Au risque d’être parfois piégé par un système dont les règles sont en constante redéfinition…

 

 

Les journalistes utilisent Twitter… Les entreprises utilisent Twitter… Les producteurs de contenus web utilisent Twitter… Les particuliers utilisent Twitter… Même les animaux de compagnies sont maintenant sur Twitter…

 

Si les usages semblent globalement similaires, les finalités, elles, sont parfois diamétralement opposées. Un journaliste a pour objectif de fournir à ses lecteurs une information vérifiée, et à son patron (si possible) une exclusivité par rapport à ses concurrents. Un blogueur visera souvent une meilleure diffusion de ses billets, soit in fine une hausse de la fréquentation de son blog. Un particulier visera à capter de l’information et à dialoguer avec ses contacts, etc, etc. Le tout en s’adaptant à trois des règles qui régissent Twitter : un contenu de 140 caractères maximum, l’idée de diffusion et d’interactions en temps réel, ainsi qu’une multiplication de sources pouvant diffuser des informations contradictoires sur le même sujet.

 

Seulement voila : lorsque ces divers objectifs s’entremêlent sur le même réseau, que la capacité d’usage de l’outil de micro-blogging varie considérablement d’un abonné à l’autre, il arrive souvent que certaines « vérités » sur Twitter et ses possibilités prennent le pas sur des constats moins émerveillés…

 

Voici quelques uns des constats que nous allons traiter dans cet article :


=> pour les producteurs/diffuseurs de contenus : l’ère du titre remplace peu à peu celui du contenu

 => pour les entreprises : le temps réel diffère du temps médiatique

 => pour les journalistes/veilleurs : qualifier l’information et les sources est la nécessité première

 

 

De l’ère du contenu à l’ère du titre

 

 

Lorsque l’on commence a expliquer ce qu’est Twitter, à sa grand-mère ou à son patron par exemple (l’un étant souvent aussi connaisseur sur le sujet que l’autre), on ne peut passer à côté de l’une des bases de son fonctionnement : s’exprimer en 140 caractères textuels.

Car au-delà des aspects de temps et de véracité de l’information que nous verrons ensuite, le micro-blogging (comme son nom l’indique) se caractérise par une nécessaire compression du contenu que l’on souhaite diffuser. Ce qui, de prime abord, n’est pas problématique si l’on se confine à l’utilisation première de ce service : relayer un événement que l’on observe en « temps réel ».

 

Mais comme tout outil Twitter a subi une modification de ses usages (surtout en France) pour non pas devenir un réseau « mainstream » où chacun décrit à son voisin la pomme qu’il est en train de déguster, mais un réel réseau d’informations où les « twittos » (utilisateurs de twitter) essayent d’attirer l’attention de leurs publics vers des contenus publiés sur le web (articles, vidéos, etc.). Il n’est d’ailleurs pas étonnant de s’apercevoir qu’une très large majorité de blogueurs possède un compte Twitter. Et qu’il ne sert parfois qu’à annoncer la sortie d’un nouveau billet (mais c'est un autre débat).

 

Il est de plus intéressant de constater que Twitter (littéralement « gazouillement ») a bien choisi l’analogie avec l’oiseau : la majorité des utilisateurs ne font que picorer l’information. Avec un minimum d’abonnements (disons une centaine), le volume d’informations qu’un utilisateur de ce service peut voir défiler dans la journée est parfois impressionnant. Il est alors raisonnable de penser que : 1) il ne lit pas l’ensemble des tweets qu’il voit passer 2) il ne clique pas sur l’ensemble des tweets qu’il lit 3) il ne lit pas l’ensemble des contenus vers lesquels ses clics l’ont renvoyé.

 

Naturellement donc (ou sauf s’il ne fait que ça de sa journée), un utilisateur de Twitter fait du tri, il sélectionne le contenu qu’il va lire en fonction de divers critères : le temps dont il dispose, le sujet du contenu vers lequel le tweet renvoi, la source vers lequel le tweet renvoi, la personne qui tweet… et bien entendu le contenu et la signification des 140 caractères en eux-mêmes !

 

Mettons nous maintenant à la place d’un blogueur, ou de tout autre personne qui diffuse du contenu sur Twitter. Au-delà du fait que ce service est réellement intéressant pour dialoguer avec ses lecteurs et d’autres blogueurs, il reste tout de même un outil incontournable de promotion de contenus (c’est souvent d’ailleurs l’une des sources amenant le plus de visiteurs vers un blog).

Les techniques pour attirer des twittos (et obtenir aussi des re-tweets) sont diverses et variées : choisir l’heure, le jour, renvoyé plusieurs fois le même tweet, etc. Mais au final, le plus efficace reste le tweet en lui-même, soit (souvent) le titre de l’article !

Si par exemple cet article s’intitulait : « comment être efficace sur Twitter en 5 étapes », il est quasiment sûre que son lancement sur Twitter ramènerait de nombreuses visites et serait sûrement re-tweeter plusieurs fois. Car sur Twitter, le tweet doit être explicite et résumer déjà en grande partie le contenu vers lequel il pointe. Au risque souvent d’induire en erreur le lecteur ou de le décevoir par un contenu trop pauvre par rapport à son titre prometteur.

 

Et comme nous l’avons dit, le twittos picore… Le temps réel le pousse à faire vite, à sélectionner l’article avant même de l’avoir lu, à être en quelque sorte dépendant du titre de celui-ci (ou du tweet qui l’annonce). Mais certains producteurs de contenus ne s’arrêtent pas seulement à un titre élaboré et explicite (attirant l’attention), et vont parfois plus loin en condensant leurs articles afin que ceux-ci s’insèrent au mieux dans la logique d’un contenu en 140 caractères : ils font des listes de titres, des infographies, des copiés/collés d’articles, etc.  

Le contenu essentiel doit sauter aux yeux, car le temps de parcourir l’article, 15 autres tweets attendent d’être lus (certains parlent « d’infobésité », on peut pousser plus loin concept et remarquer parfois une certaine addiction à l’information). La compression du titre visant à attirer l’attention devient petit à petit une compression des idées et de l’argumentation pour rester en adéquation avec le rythme de lecture et de consommation de l’information imposé par la pratique du micro-blogging.

 

Le must étant de constater que très souvent des articles de plusieurs milliers de caractères sont re-tweeter sitôt leurs annonces faites : comme si un individu normalement constitué pouvait lire 3 pages en quelques secondes…

 

Que faut-il retenir ?

 

1)  Pour être lu et/ou re-tweeté, le titre d’un article doit être pensé en fonction des « règles » d’usages de Twitter : explicite, court, aguicheur…

2)  Un twittos retiendra plus facilement un titre qu’un contenu en lui-même. D’ailleurs, lorsque l’on fait une recherche sur Twitter on se base sur des mots-clés précis, qui ont intérêt à être dans le titre.

3)  Cette volonté d’attirer l’attention en simplifiant au maximum ses idées se ressent de plus en plus sur les contenus en eux-mêmes.

 

 

 

Temps réel + temps médiatique = temps communautaire


 

Si manitenant l'on demande à une personne un peu plus au fait du micro-blogging et de ses usages (votre grand-mère a ses limites), quelle « révolution » ce nouveau système de production de contenu a apporté au web, il est fort probable que celle-ci vous réponde : le temps réel !

 

Au-delà du fait que la notion de temps réel n'a pas été inventée par Twitter (le « direct live » existe depuis un certains temps dans les médias par exemple), son appréciation par les entreprises est souvent confondue avec celle du temps médiatique...

 

Car nous pouvons partir du principe qu'il y a plusieurs « temps » : le temps politique, le temps sociétal (développement durable par exemple), le temps concurrentiel, etc. Et le temps médiatique : celui où une information arrive sur le devant de la scène, où son relais par les médias et ses acteurs fait d'elle un « fait de société ».

 

 

Pour illustrer cela plus concrètement :


 ==> un i-phone explose au visage d'un utilisateur aux USA le vendredi à 01h du matin (heure de Paris) => événement


 ==> plusieurs personnes tweet l'événement en direct (elles étaient juste à côté quand cela à eu lieu) => temps réel


 ==> c'est seulement le lendemain (samedi) que la majorité des utilisateurs de Twitter et d'I-phone relais la nouvelle => appropriation « communautaire »


 ==> le lundi matin, des journalistes s'en sont emparés et en font la une de leurs journaux => temps médiatique

 

Autrement dit, il existe toujours un temps de battement (sauf peut-être pour certains événements touchant une majorité de personnes, comme un attentat par exemple) entre le moment où une information est diffusée en temps réel, et où celle-ci est reprise par diverses communautés d'intérêts sur les réseaux sociaux pour devenir un fait médiatique.

 

Schématiquement : temps réel (diffusion de l'information) + temps médiatique (la visibilité de l'information s'accroît) + web 2.0 (échange, partage, déformation de l'information) = temps communautaire

 

Ce « temps communautaire » devient un enjeu important pour tout producteur de contenu, et spécialement pour les organisations souhaitant utiliser Twitter comme moyen de promotion de leurs produits, ou tout simplement comme outil de veille. Il est autant utile de repérer une information concernant son organisation lorsque celle-ci est diffusée « en direct », que d'avoir défini à l'avance qui seront les personnes (leaders d'opinions, « influenceur », etc.) pouvant rendre visible très rapidement cette information au sein d'une communauté.

Ce laps de temps peut être réellement utile pour préparer une stratégie, prendre du recule face à un événement négatif, définir un argumentaire, etc.

 

De plus, il apparaît comme nécessaire pour les organisations de bien appréhender le rythme de vie numérique des communautés qu'elles observent et sur lesquelles elles souhaitent s'appuyer pour diffuser un message : quels sont les temps morts (week-end, jours fériés, etc.) ? Quels sont les sources/personnes déclenchant généralement un « re-twittage » de masse ?

 

Une organisation devra donc prioritairement s'intéresser non pas au rythme de diffusion des informations la concernant sur Twitter, mais au rythme d'utilisation de ce même outil par les communautés/réseaux d'utilisateurs qui font vivre la ou les thématiques la concernant sur le web dit 2.0.

 

En bref, faire du tri avant de veiller, observer et temporiser avant d'agir. Au risque sinon de vite s'essouffler et de développer un anachronisme numérique incompatible avec les attentes des usagers du web (« ils ne m'ont toujours pas répondu », « aucune réactivité », etc.).

 

 

 

Qualifier ses sources et ses informations : des bases à se rapproprier

 

Récapitulons : Twitter est régie par une logique de la compression des idées, du 140 caractères et du titre roi. Qui plus est, le temps réel est devenu un élément inhérent aux pratiques communautaires numériques, temporalité variant d'un groupe d'utilisateurs à l'autre.

 

Au milieu de tout cela donc, les professionnels de l'information, tout du moins de sa collecte et de son traitement (spécialement les veilleurs et journalistes), doivent s'adapter à ce nouvel environnent où vitesse est souvent confondue avec précipitation, et où tout est parfois possible pour attirer l'attention.

Et certains, que ce soit pour rigoler/ironiser, voir plus rarement pour lancer des rumeurs à l'encontre de concurrents (économiques ou politiques), n'hésitent pas à créer de « faux comptes » dont les informations sont réellement visibles mais faussement informatives : bref, faire du faux pour faire croire au vrai, tout en donnant un peu de vrai pour ne pas faire trop faux (est-ce assez clair ?) !

 

Libération a par ailleurs publié, en ce début du mois d'octobre 2010, un papier concernant ces « faux comptes » . Ce qu'il en ressort, non pas de plus important mais plutôt de plus inquiétant pour le métier de journaliste, est que cela marche : de nombreux journalistes tombent dans le panneau, et utilisent les informations diffusées par des comptes Twitter douteux pour écrire des articles !

 

Bien évidemment, ces comptes paraissent « douteux » après-coup... Et d'ailleurs, même l'AFP se permet maintenant de reprendre des tweets comme dépêches ! Vérifier ses sources et qualifier l'information est peut être devenu désuet à l'heure du « temps réel » et du « 140 caractères » ?

 

Partons du principe que non, et voyons quelles sont les possibles méthodes pour s'assurer que l'information que l'on pêche sur Twitter n'est pas avariée, voir même pire, toxique :

 

 ==> Ne pas se reposer sur la biographie présente sur Twitter : aller plus loin en cherchant quels sont les autres lieux numériques où se trouvent la personne, vérifier si le compte Twitter qu'elle présente sur ses autres outils (blogs, etc.) est bien le même.


 ==> Si le compte est « anonyme » (pseudonyme), laisser un temps de battement après diffusion de l'information, et voir si celle-ci se retrouve dans d'autres comptes « officiels » (en tout cas pas anonymes et traitant du même sujet). Car sur Twitter, comme ailleurs sur le web, l'exclusivité n'existe pas réellement, on peut toujours retrouver la même information provenant d'une autre source (surtout pour un événement ayant une portée médiatique forte)


 ==> Identifier le réseau de ce compte : quelles sont les comptes qu'il suit, qui le suivent ? Et quels sont leurs réseaux ? L'idée étant de repérer si le compte en question ne fait pas partie d'un réseaux de faux comptes (par exemple). Un outil (enfin plutôt un gadget) comme Mention Map permet de visualiser de manière heuristique ce type d'informations.


 ==> Prendre en compte le temps communautaire : laisser (encore une fois) un temps de latence afin de voir si la communauté la plus active sur la thématique ne réfute pas d'elle même l'information diffusée.

 

Ces 4 approches ne sont bien entendu pas les seules, mais il apparaît comme impossible de lister toutes les possibilités, tant elles varient en fonction de la nature de l'information, du type de comptes, etc.

 

Mais l'outil principal, qui lui n'est pas numérique, pas 2.0, mais tout à fait maîtrisable par tous, est l'esprit critique ! Ne pas se laisser subjuguer par la technologie, toujours penser qu'un être humain est derrière une information, qu'un être humain est le destinataire de cette information, et que par conséquent l'idée même de fiabilité et d'objectivité est toujours toute relative...

 


 

Au final : une nouvelle dialectique numérique ?

 

Twitter n'a donc pas révolutionné notre société de l'information et de l'immatériel en  elle même, mais a induit peu à peu une nouvelle façon de consommer et diffuser l'information : compression des idées, rapidité des échanges et nouvelle temporalité, brouillage de la notion même d'autorité et de fiabilité des sources.

 

On pourrait même dire que Twitter a permis le développement d'une « grammaire du gazouillis »... On ne dit pas (par exemple) « tiens je vais micro-bloguer », mais « je vais tweeter », etc. Twitter est devenu un verbe, un adjectif, un nom, voir un objet sémantique à lui tout seul...

 

Cet article en est d'ailleurs un bon exemple, sur 2475  mots, les termes liés à Twitter (utilisant de près ou de loin son « étymologie ») sont au nombre de 63 !

 

Alors, amis twittos et twittas, quel tweet allez vous tweeter pour annoncer cet article sur Twitter ?

Repost 0

Le nouveau blog!

Le nouveau blog : cadderep.hypotheses.org

 

Rechercher

Gazouillis