Blog traitant de l'E-Réputation et des moyens de la surveiller : outils, méthodes, actualités... Venez faire vos courses chez nous!
Lorsque l'on souhaite faire de la veille sur le web dit social, et qui plus est pour une organisation générant un fort volume de résultats à son
propos, l'on se retrouve souvent face à un choix : collecter l'ensemble des résultats, ou se focaliser sur une selection de sources. Voyons rapidement les avantages et inconvénient de chacune de
ces pratiques.
« Je veux tout savoir en ce qui concerne mon organisation »
Tout d'abord, et comme indiqué dans le titre de ce billet, l'exhaustivité est une légende de la veille stratégique, l'histoire que l'on se raconte au coin du feu entre veilleur : « un jour, j'ai trouvé toutes les informations concernant tel ou tel sujet »... Car soyons réalistes : dans une société où l'abondance de données, de mise en contexte et de traitement de celles-ci pour les « transformer » en information est la règle (qui plus est sur le web), collecter l'ensemble des informations concernant une thématique ou une organisation est... impossible !
En premier lieu, certaines d'entres elles sont invisibles, c'est à dire que les outils de « crawling » traditionnels ne les détectent pas. Ensuite, la veille sur le web est une collecte d'information à un instant T, un flux plus qu'un stock, donc en continuelle évolution.
Mais cette idée d'exhaustivité est là pour répondre à l'approche anxiogène de l'information développée par certains décideurs qui veulent avoir l'impression de tout connaître sur un sujet avant de prendre une décision stratégique... Pourtant, et comme pour toute chose, ce n'est pas l'information en elle-même qui est stratégique, mais bien ce qu'on en fait, la façons dont on l'intègre à une réflexion et in fine aux actions qui en découlent.
Remarquons aussi au passage que cette idée d'exhaustivité se rapproche plus des actions de recherches (continues) d'informations que de surveillance automatisée (veille).
Pour revenir précisément au sujet de ce billet, l'une des approches de la veille d'opinion ou d'e-réputation peut être la suivante : collecter un maximum d'infos de manière large, en se basant par exemple sur une requête assez généraliste.
Cette approche permet généralement de découvrir constament de nouvelle sources, de repérer le départ d'une crise par exemple. Les systèmes d'alertes basés sur des requêtes (Google alertes en étant l'exemple le plus aboutie) font partie intégrante de cette recherche d'exhaustivité où chaque résultat visible et détectable par un outil de crawling, et contenant les mots-clés voulus, est automatiquement pris en compte.
Les questions à se poser lorsque l'on aborde ce type de recherche et de veille sont généralement les suivantes :
==> Quels mots-clés vais-je utiliser, et surtout comment les affiner au fur et à mesure ? Ne pas rester figé sur sa requête, la faire évoluer en fonction des discours des internautes est nécessaire pour ne pas risquer de passer à côté d'une nouvelle information intéressante.
==> Lors du tri des résultats, quels vont être mes critères de selection des sources ou des informations (d'où la nécessité de bien définir ses objectifs) ? Très important pour ne pas crouler sous l'information, dont (par expérience) une grande partie est souvent redondante voir totalement inutile.
==> Quel est le rythme de la collecte (une fois par jour, par semaine, en continue à chaque nouveau résultat) ?
==> Quel est le rythme du tri et de l'analyse ? Qui, si possible, doit être en accord avec le rythme de collecte.
==> Combien de personnes sont dédiées à ce travail ? Car il faut bien prendre en compte que le flux d'information sur le web à rarement un « rythme de croisière »... Et surtout que celui-ci est plutôt imprévisible.
==> Quel système de diffusion et de synthèse ? Si l'information collectée ne circule pas, elle est inutile. Mais face à un fort volume la synthèse devient essentielle. Comment ne pas perdre de la valuer ajoutée dans le rendu qui est fait de la veille doit être une problématique essentielle. La pratique du Power Point à outrance étant le plus mauvais des exemples : simplifier l'articulation complexe des informations collectées revient à biaiser totalement une prise de décision (ou à la rendre inefficace).
Au final, la veille et la recherche en continue (que l'on pourrait presque qualifier de « veille boulimique » de part son continuel besoins d'ingurgiter de l'information) est un peu l'anti veille de tendance : on ne cherche pas à savoir ce qui est le plus médiatisé, discouru ou partagé (notion de visibilité qui saute donc), mais bien l'ensemble de ce qui est dit par les internautes sur une organisation ou une thématique donnée.
Au risque parfois de se focaliser sur des informations inutiles. Car si la réputation est une perception, n'est-il pas intéressant de ne se concentrer que sur les informations ou discours d'internautes pouvant impacter (durablement) celle-ci ?!...
Mais cette approche permet dans tous les cas d'opérer a posteriori une selection plus fine des informations et des sources, et de diminuer le risque d'omettre des données importantes pour le développement d'une stratégie web efficace.
« Je ne m'intéresse qu'aux influenceurs méditicommunitycuratiques »
La gestion de la réputation en ligne a très vite démontrée tout son intérêt pour les activités marketing des organisations : vendre un produit ou un service avec la participation des internautes, et non pas leurs critiques, devient de plus en plus essentiel.
De nombreux services marketing se sont emparés assez vite du sujet, se fixant souvent (à tort) sur la visibilité des messages plutôt que sur la façons dont les internautes en faisaient usage, le partageaient, etc.
Cet aspect de visibilité et de marketing a apporté à la veille d'opinion ou d'e-réputation la méthode des panels. Approche qui s'est très vite retrouvée formalisée dans de nombreux outils de « brand monitoring », dont l'un des arguments commercial est souvent « un panel de X millions de sources ».
Couplé au principe de visibilité (« seuls les résultas les plus visibles et accessibles impactent ma réputation »), les sources sélectionnées (panelisées) doivent donc crystaliser les dernières tendances concernant une organisation ou son secteur, et surtout les médiatiser fortement. On ne cherche plus en vain l'exhaustivité, ou le « signal faible », mais bien les dernières tendances, celles qui d'une part viennent des internautes et qui d'autres parts les toucheront directement (une sorte de boucle : la source médiatisée sélectionne les tendances, qui ensuite influencent directement les internautes, et ainsi de suite).
Premier biais à cette approche : l'idée de représentativité... Car si le web dit social permet à chacun de s'exprimer librement, avec sa propre approche d'un sujet, avec un contexte différents pour chaque lieu d'expression, alors qui (ou quoi) peut-être représentatif ?! Même si un blog est dans le top des classements, qui vous dit que vos clients le lisent ?
Ensuite, le web est par nature mouvant : la source représentative d'aujourd'hui ne sera surement pas celle de demain....
Cependant, cette approche par panels présente l'avantage de ne surveiller que les sources qui traitent régulièrement du sujet ou de l'organisation qui vous intéresse, d'identifier les noeuds d'un réseau, ceux par qui passent les informations essentielles. En somme, ne plus s'intéresser à la source mais aux relais, partant du principe qu'une information non relayée et inaccessible n'impactera pas durablement les perceptions de vos «cibles ».
Les questions à se poser lorsque l'on choisit de mettre en place une stratégie de veille par panels peuvent être les suivantes :
==> Quels sont les critères de sélections des sources ? Car il n'y a pas de représentation en soi, et toute médiatisation peut être facilement relativisée par rapport à d'autres sources ou d'autres médias. Ces critères sont donc essentiels à déterminer, et malheureusement laisser trop souvent au libre choix des prestataires (qui, rappelons le, n'appréhendent pas l'ensemble de la stratégie d'une organisation).
==> Quel est le rythme de redéfinition de ce panel ? Comme dit précédemment, il est illusoire de croire que sur le web un panel doit et peut rester fixe... Intégrer et supprimer de nouvelles sources de manière régulière est une nécessité.
==> Quel espace de surveillance ? Choisir des sources signifie aussi en laisser d'autres de côté. Afin de réduire son espace de surveillance, évitant ainsi le biais de la recherche d'exhaustivité et de la surcharge d'information, il faut avant tout le déterminer clairement : types de discours à surveiller, niveau de médiatisation, types de sources ou de réseaux, langue, espace géographique (dans une problématique de géolocalisation), etc.
==> Quel volume de sources ? Comme dans un panel classique, la question du volume de sources, de ce qui peut paraître représentatif, est essentielle. Avoir des centaines de millions de sources c'est bien, savoir choisir un volume réduit mais pertinent, c'est mieux. Le tout est donc, encore une fois, de partir du principe qu'une tendance (puisque c'est ce que l'on recherche avec des panels) n'est le fruit que d'un petit nombre de personnes médiatisées et/ou considérées comme expertes dans leur(s) domaine(s).
Au final, cette approche très marketing vient répondre généralement à des demandes assez ambiguës, ou plutôt mal définies, et faisant de la visibilité le critère essentiel. En oubliant parfois que ce qui fait le web « 2.0 » n'est pas que cette notion d'accès à l'information, mais aussi son partage dans des « lieux de conversations » parfois obscures mais tout aussi determinant dans des actions stratégiques de communication. En résumé : privilégier le signal fort sur le signal faible...
Mais cette approche s'avère tout de même utile afin d'éviter la redondance d'informations et ne faire emerger que les données les plus significatives et surtout ayant le plus d'impact.
Au final : faut-il faire un choix ?
Non... Ou oui... Bref, tout dépend des objectifs... Ou plutôt d'un mariage habile des deux approches. En effet, appréhender les tendances s'avère tout aussi utile que d'analyser précisément un fort volume de retombées.
Repérer « l'ensemble » des échanges sur un sujet permet de penser une stratégie dans le détail, d'ajouter à un scénario stratégique un grand nombre de facteurs pouvant venir le perturber ou le conforter.
Sélectionner des sources qui « font les tendances » donne alors l'occasion d'évaluer si les sujets repérer par le biais d'une veille détaillée peuvent remonter à la surface, devenir accessibles non pas à un cercle restreint d'internautes mais bien à une plus grande majorité d'entre eux.
Cet article visait donc tout d'abord à démystifier ces deux approches : on ne trouvera jamais tout sur un sujet, et la représentativité sur le web n'est qu'illusion. Malheureusement, il est courant de voir des prestataires promettre l'un ou l'autre...
Ensuite, l'idée développée ici est que la veille est un élément essentielle de toute stratégie sur le web, et que pour comprendre au mieux un environnement aussi fluctuant il ne faut pas se limiter à une seule approche, une seule méthode...
Comme souvent, il faut faire des choix. Et surtout ne pas hésiter à expérimenter. Car si le web nous apprend quelque chose, c'est bien qu'il n'y a pas de solutions standarts ou clés en mains : chaque individu ou organisation à la possibilité de développer sa propore stratégie, d'appliquer son propre filtre sur le débit d'information continue et en temps réel qui fait aujourd'hui d'Internet l'un des terrains d'expérimentation médiatique le plus passionnant.
Et vous : cherchez vous l'exhaustivité ou la tendance dans votre veille ?! Comment imbriqueriez vous ces deux approches ?!