Overblog
Suivre ce blog
Administration Créer mon blog
17 octobre 2014 5 17 /10 /octobre /2014 13:33

« L'éthique c'est l'esthétique du dedans » (P. Reverdy). Chacun la sienne donc… Mais lorsqu’un community manager incite ses publics à cliquer sur un contenu, a-t-il conscience que, à proprement parler, il fait « travailler » ces dits publics ? Et que s’il peut générer d’éventuels bénéfices pour son organisation (réputation, chiffre d’affaires ?), c’est surtout les plateformes sur lesquelles il communique qui sont les grandes gagnantes ? Comment considérer ce « digital labor », ce travail numérique, et comment valoriser voire rémunérer leurs actions au-delà des classiques remerciements ?

 

 

Stratégies numériques : quelle éthique concernant vos travailleurs du clic ?

La question des « digital labors » anime depuis quelques années la communauté scientifique. Pour reprendre une définition fournie par Antono Casilli et qui me semble claire : « Le digital labor désigne les activités sur les réseaux socionumériques qui peuvent s’assimiler au travail parce que productrices de valeurs ». Il s’agit d’une problématique complexe que l’on peut aborder sous plusieurs angles et questionner par divers prismes d’analyse.

 

Dans ce billet que je veux court, je vais me concentrer sur le fait que les stratégies numériques des organisations amènent les internautes à produire de la valeur : en exposant des données personnelles = valeur directe pour l’organisation qui va les exploiter + pour les plateformes qui les traitent ; en favorisant l’insertion des usagers dans une économie de l’attention = pérennisation des modèles des plateformes et donc de leurs financements (publicité, valeur boursière, etc.). La question étant : les entreprises ont-elles bien conscience que leurs actions de community management (entre autre) génèrent des externalités sur lesquelles elles n’ont aucun « contrôle » ? Et ce faisant, quelle éthique avoir vis-à-vis des « communautés » dont on exploite les capacités cognitives ? Voire un système de rémunération ?

 

Bref, je veux plus poser un constat qui pourrait amener à des réflexions pragmatiques, qui plus est quand la majorité des organisations aiment à se définir par leurs valeurs (toujours humanistes), et que ces mêmes valeurs ne pèsent plus bien lourd lorsqu’elles sont absorbées par les plateformes. Mais aussi partir de l’idée qu’un jour ou l’autre ce « travail gratuit » deviendra un frein aux actions de communication en ligne, les travailleurs du clic prenant conscience de ce qu’ils apportent face à ce qu’on leur rend. Ce qui est de plus en plus le cas avec les données personnelles...

 

 

 

L'annonceur, ce sous-traitant de Facebook, Google & co ?

 

Lorsque qu’une organisation décide de se lancer sur Facebook (par exemple) elle se fixe (si tout va bien) des objectifs. Et pour mesurer les résultats elle dispose de l’ensemble des indicateurs proposés par la plateforme. De même avec le SEO et Google Analytics, etc. Comme je le répète souvent il convient à l’organisation de définir ses propres indicateurs, de ne plus seulement compter les likes et les RTs, pour se focaliser sur le commun des communautés, bref ce qui fait la communication.

 

Mais au-delà, ces indicateurs, cet engagement que l’on recherche comme le Graal, ces likes et autres partages qui amorceront une diffusion virale (ou pas), ne répondent pas réellement aux objectifs de l’organisation : ils incitent les community manager à renforcer les modèles économiques des plateformes. Ce faisant, les « appels aux likes » (la Croix Rouge par exemple) peuvent être vus comme un ensemble d’offres d’emplois : venez travailler pour Facebook, en likant vous produisez de la valeur, et leurs actionnaires investissent en fonction de celle-ci.

 

Certes, cela est un peu caricatural… Mais pas tant que ça ! Imaginez un monde où une entreprise dirait à un community manager : pourquoi te rémunérer alors que tu passes tes journées à discuter sur des outils sympas et à relayer des vidéos marrantes ? Ou à un veilleur : vu comme tu engranges des connaissances en faisant ta veille, tu es déjà bien assez gagnant. Pour un utilisateur lambda d’une plateforme web (et nous le sommes tous) cela revient exactement au même. Pour certains bénéfices clairement identifiables (communication, distraction, etc.), et très clairement mis en avant, il donne de son temps, de ses capacités cognitives, de ses idées, de son affect, pour en retirer au final des bénéfices bien maigres comparés à ceux des plateformes. Et je ne parle pas ici que de bénéfices monétaires. Les traitements possibles de nos données, si elles étaient mises à disposition ou si les plateformes partageaient réellement une partie de leurs analyses, nous apprendraient beaucoup sur nous et deviendraient un atout pour nos vies professionnelles comme personnelles.

 

Si l’on entend souvent « si le service est gratuit, alors c’est que vous êtes le produit », alors pourquoi ne pas considérer une entreprise qui ouvre une page Facebook comme un produit d’appel ? Le community manager devenant une sorte d’agence d’interim qui, en poussant à l’interaction et au dévoilement de soi, permet à Facebook d’identifier les meilleurs « employés » dont les données personnelles et le comportement pourront s’insérer dans des stratégies publicitaires.

 

 

Economie du partage, de l’attention et de la réputation sont dans un bateau…

 

L’économie du partage tombe à l’eau… Qui reste-t-il ?

En effet, il me semble bien péremptoire de voir les actions de partage sur le web (fussent-elles pour une cause noble ou « éthique ») comme une réelle économie. Il me semble plus juste de considérer le partage comme un levier attentionnel, un marché de l’économie de l’attention dont la rémunération est la réputation. Bien référencer un site sur Google est nécessaire pour une organisation. Mais ce faisant, elle permet à Google de développer son modèle de capitalisme linguistique, et ainsi de trouver là aussi un produit d'appel pour mieux disséquer les mots-clés utilisés par les internautes (entre autre chose) et ainsi favoriser par la suite la vente de publicités.

Mais être bien référencé sur Google permet de gagner en réputation (par un mécanisme de mesure de la popularité). Un internaute visitant votre site profite-t-il de cette réputation ?

 

Si l’on prend l’exemple de Twitter et de la « social TV », voir apparaitre son tweet à la télévision est clairement une rémunération sous forme de réputation. Un contrat implicite : tu fais connaitre mon émission, j’affiche ton nom à l’écran. Là encore c’est Twitter qui, en étant toujours à la recherche d’un business model fiable oriente de plus en plus notre attention, est le grand gagnant. Et dans un deuxième temps le chaine de télévision… Et l’utilisateur de Twitter ?

 

Autre exemple qui me concerne : Overblog vient de rendre systématique la publicité sur les blogs qui ne versent pas leur obole à la plateforme (comme vous pouvez le voir). En produisant du contenu, en le relayant sur Twitter ou ailleurs, je vous insère dans une économie de l’attention qui profite autant à Overblog qu’aux autres plateformes par lesquelles vous accédez à mes contenus. Vous y gagnez (si tout va bien :-)) quelques éléments pouvant participer à vos réflexions. J’y gagne surement en notoriété, en visibilité, bref en réputation. Certes, je pourrais allez voir ailleurs (et cela ne devrait pas tarder). Certes, vous n’êtes pas obligés de lire mes billets, et encore moins de cliquer sur les publicités. Mais dans tous les cas vous fournissez des données personnelles à Overblog, à Google, etc. Vous renforcez un modèle économique de manière non-intentionnelle.

Sur cet exemple on pourrait débattre longuement de l’intérêt de la publicité ou pas sur le web, des modèles alternatifs, etc. Mais la question n’est pas que là il me semble. Elle est la suivante : comment en tant que producteur de contenu dois-je estimer l’attention que vous portez à mes écrits, dois-je intégrer les capacités cognitives que vous engagez à me lire à mes stratégies pour que le temps passé sur ce blog vous (r)apporte quelque chose d’autre que le plaisir de lire de superbe et pertinents billets ?

 

 

Vers une éthique de la communication sur le web intégrant la juste valeur des actions des publics ?

 

L’éthique vue comme la « science qui traite des principes régulateurs de l'action » est réellement au centre de ces questionnements. Il faut commencer à prendre en compte que ce qui régule les actions de communication sur le web est le modèle économique édictée par les plateformes. Et dont les algorithmes sont les exécutants, et les actionnaires les donneurs d’ordre. Le fait de faire travailler ses publics doit questionner les entreprises qui basent toutes leurs actions marketing sur la recherche du like, du RT, en somme du partage.

 

Loin de moi l’idée de dire : arrêtez tout, Facebook & co sont des méchants. Non. Mais plutôt : si vous continuez comme ça sans prendre en compte qu’un jour ou l’autre les gens ne seront plus dupes, qu’ils considéreront donner déjà bien assez aux plateformes pour des services de plus en plus restreints et dirigés, alors pourquoi viendraient-ils encore aider les entreprises à bénéficier des quelques miettes que leurs laissent les plateformes ? Et encore, si l’on continue sur l’exemple de Facebook, les « miettes de l’engagement » deviennent elles aussi payantes…

 

Comme pour toute stratégie évaluer les tâches de chacun est nécessaire. Mais aussi évaluer le coût et l’implication demandés pour l’exécution de ces tâches. A quand des plans stratégiques qui évaluent ce que coûte (en termes de temps, d’attention, etc.) à un internaute de participer à ladite stratégie ? Et ce que ça lui rapporte ? Et ce que cela rapporte aux plateformes ? Et au final, ce qu’elles redistribuent réellement autant à l’entreprise qu’aux publics ?

 

Si nous vivons une période de « privacy washing » (i.e. non, non, nous avons une éthique de la donnée personnelle) alors je mise sur le fait que bientôt de nombreuses actions de communication s’orienteront vers la question du digital labor. Les premières entreprises qui se fixeront des règles éthiques dans leur action de community management ne seront ainsi surement pas considérées comme des « exploiteurs du savoir et de l’attention ». Qui plus est dans un contexte économique « difficile » (ce qui est un euphémisme). Plus qu’une question de paraitre, je pense qu’il s’agit aussi d’une réelle réflexion sur ce que le numérique change dans les relations entre les entreprises et leurs publics… Et comme je le disais au début : chacun son éthique, mais mieux vaut développer la sienne, affirmer réellement ses valeurs que subir ou accepter sans recul celles des autres !

 

Et vous, vous considérez vous comme des « travailleurs du clic » ? Comment intégrez-vous ce questionnement à vos stratégies ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
19 juin 2014 4 19 /06 /juin /2014 13:54

Ou, l’instrumentation de l’affect des publics en ligne ne montre-t-elle pas vite ses limites ? Voire, le community management n’est-il plus qu’une affaire de dressage de LolCats (et de fruits qui dansent) ? Bref, ne faut-il que s’arrêter à la recherche d’une meilleure « image » au risque de ne favoriser que le développement d’interactions appauvries et accompagner (involontairement) une forme de « capitalisme émotionnel ou affectif » pour le plus grand bénéfice des acteurs dominants du web ? Un ensemble de questionnements dont voici les contours.

 

Le LoL comme premier levier « d’engagement » ?

 

La coupe du monde de foot nous offre actuellement de nombreux exemples de stratégies de communications sur le web. « Stratégie » apparait d’ailleurs comme un terme un peu fort : plus que des stratégies les organisations développent des tactiques afin de s’insérer au mieux dans le flux des échanges, et capter leur part d’attention.

 

Les exemples ne manquent pas pour démontrer la manière dont les entreprises « profitent du temps réel », rebondissent sur « le buzz », et bien évidemment jouent sur la corde de l’humour à répétition. La question, de mon point de vue, n’est pas de juger de l’effet comique ou non de ces tactiques, mais de questionner leur réelle efficacité sur le long terme, voire le rapide épuisement attentionnel qu’elles provoquent. D’ailleurs, l’affect ne se résume pas au seul levier de l’humour…

 

Pour aller plus loin, on pourrait même se demander si la volonté d’appauvrir les discours, de ne choisir que la facilité pour générer des interactions rapides, ne va pas petit à petit décrédibiliser les métiers du web (community management en tête) ? Et cela non pas pour les publics (le retweet ou le like étant le niveau 0 de l’interactivité numérique) mais pour les organisations et les investisseurs eux-mêmes. En reformulant la question d’un point de vue marketing : y-a-t-il un ROI sur le LoL ? Et un avenir…

 

 

Votre (e)réputation ne se résume pas à « l’image que l’on a de vous »

 

De mon point de vue, l’un des facteurs central pouvant expliquer cette frénésie de la blagounette facile et répétitive se trouve dans les discours tenus sur l’objectif des stratégies de communication numérique, dont l’un des premiers est la construction d’une réputation.

 

Lorsque l’on regarde les approches (toujours les même depuis 8 ans) et discours définissant la réputation en ligne, la notion d’image y est systématique. L’image mentale (que l’on développe en suite en « image de marque ») est le versant affectif et cognitif de la réputation. Lorsqu’un individu est exposé à l’action ou au discours d’une organisation, il va ainsi articuler un ensemble de représentations (issues de sa culture, de ses expériences, des informations qu’il traite, etc.), que l’on traduit par la notion d’image. Mais cette focalisation sur la notion d’image pose alors plusieurs problèmes :

==> L’image mentale n’est pas accessible pour une organisation (et pour personne). Un jour peut-être les approches de « neuromarketing » auront fait leurs preuves, ou nos cerveaux seront des objets connectés. Pour l’instant, l’image est dans la tête de vos publics… et reste dans la tête de vos publics.

 

==> Croire que chaque internaute va accéder aux informations de la même manière, et ainsi produire la même image, c’est penser que les usages du web sont homogènes, que tout le monde sait se servir d’un moteur de recherche (vu que « votre image, c’est Google » selon Chris Anderson), appréhende les interactions permises par les plateformes de manière similaire, ou encore a les mêmes référents culturels…

 

==> La communication suppose un commun, l’image est une production individuelle. Produire (seulement) de l’image c’est donc exclure une partie des publics, générer de possibles crises (et là aussi les exemples de communication dont l’humour est mal accepté sont légions), réduire les activités cognitives des « cibles » et ainsi petit à petit les interactions possibles.

 

==> L’image est fugace et se déforme dans le temps. Si l’on peut donc rigoler (voir partager) une photo d’ananas, ce n’est pas pour autant que celle-ci deviendra un marqueur mémoriel, et influera ensuite sur les relations avec l’ananas l’entreprise qui diffuse la photo.

 

==> Le principal levier pour générer de l’affect… est de jouer sur l’affect. Et l’humour, la peur, la tristesse sont des leviers avec lesquels il parait évident de générer/provoquer des émotions. Ce qui nous amène aux questionnements de ce billet donc, et dont nous discuterons des effets négatifs un peu plus loin.

 

Pourtant la réputation, et dans un certain sens les effets de la communication, sont mesurables. Et, oh magie, le numérique est construit de nombres qui permettent ces calculs… Mais avec de nombreuses limites là aussi. Vu que les organisations aiment les mesures chiffrées, le professionnel du web peut vite valoriser ses actions par des indicateurs produit par les plateformes : retweets, likes, audience… Dans un web où tout le monde fait du « social », le public avec lequel on veut se socialiser se réduit alors à sa capacité à presser sur un bouton, à ses traces d’usages qu’il égrène à chaque interaction, et devient ainsi un « public numérique » dont on ne sait rien hormis qu’il a cliqué suite à tel ou tel discours. Mais ici encore, rien sur l’effet réel de cette instrumentalisation de l’affect, et encore moins sur l’apport aux stratégies des organisations.

 

 

Quelques limites à ne jouer que sur l’affect et l’image

 

Bien entendu, il n’est pas question ici de combattre ou discréditer toute « stratégie » reposant essentiellement sur l’image et jouant sur l’affect. Mais surtout de pointer certaines limites, ou risque potentiels à plus long terme.

 

1. Cela favorise le modèle économique des plateformes…

Les plateformes web et surtout les acteurs dominants (Google, Facebook, etc.) ont compris depuis longtemps que monétiser l’attention est le meilleur moyen de générer des bénéfices. Ce capitalisme cognitif instrumente de plus en plus l’affect, le like de Facebook en étant le meilleur exemple. Rien d’étonnant donc de voir en « trending topic » des photos de chats, des blagues d’ados, etc.

 

Deux bons exemples sont Google+ et Twitter. En tant qu’utilisateur quotidien (surtout lecteur) de Google+, il est facile de remarquer que la majorité des posts étiquetés « populaires sur Google+ » sont les mêmes… que sur Facebook : vidéos « amusantes », textes (remplis de fautes) jouant sur les émotions, paysages de rêves, etc. S’il est difficile de dire que l’algorithme de Google+ favorise intentionnellement ce type de contenu (qui, pour rappel, a peu de rapport avec les contacts que vous suivez), il valorise néanmoins l’idée que l’audience est un critère central de la communication sur le web… Et vu que l’affect génère de l’audience, la boucle est bouclée. Les organisation se retrouvent ainsi « incitées » à produire de l’image pour gagner en visibilité, quitte à ne faire que reproduire aveuglément et sans prise de recul les modèles d’usages et informationnels voulus par les plateformes.

 

Twitter, quant à lui, vient d’annoncer l’arrivée des « gifs animés » (enfin des vidéos depuis Vine). Cela s’inscrit dans la volonté de Twitter de s’assurer un business model fiable (j’en parlais… il y a 2ans). Et qu’est-ce qui assure ce modèle de rentabilité : l’humour (gifs), la mise en avant systématique des hashtags les plus « légers », la contrainte des usages (bientôt une sélection des tweets dans les timelines ?), la valorisation des « favoris » (qui apparaissent maintenant dans ma timeline)… Bref, jouer sur l’affect des utilisateurs, voire l’instrumentaliser.

 

 

2… et pas forcément celui de entreprises

Si l’objectif de l’organisation est de générer de « l’engagement » alors, oui, les lolcats sont le meilleur moyen. Facebook, me semble-t-il, vient récemment de mettre fin à une certaine hypocrisie : vos contenus sont une forme de publicité, et faire de la publicité et bien c’est payant.

 

Mais comme le soulignait brillamment ce matin Xavier de la Porte sur France Culture, la publicité en ligne serait inefficace. Citant John Wanamaker, « Je sais bien que la moitié de l’argent que je dépense en publicité, je le gaspille, mais je n’arrive pas à savoir de quelle moitié il s’agit. », le journaliste m’offre ainsi une transposition : je sais bien que la moitié de l’argent que je dépense en stratégies web à base de LoL, je le gaspille, mais je n’arrive pas à avoir de quelle moitié il s’agit… Car les études sur l’efficacité de la publicité (hors-ligne) se concluent souvent par un « apport en image de marque ». Mais difficile de dire ce en quoi cette image influe concrètement sur le chiffre d’affaires.

 

Alors, on mesure : hors-web par des entretiens déclaratifs et autres sondages dont les limites ne sont plus à présenter, et sur le web par la computation de nombreux critères de mesure. Par analogie, on pourrait dire qu’évaluer la réussite d’une stratégie basée sur l’affect avec les mesures du web revient à mesurer l’humour d’un comique par les décibels des rires qu’il provoque. Cela parait peut être rassurant, mais ne dit en rien de ce qu’il restera de ses sketchs dans l’esprit des publics ensuite, s’ils reviendront le voir, etc.

 

 

3. Cela dévalorise les métiers du web, et spécialement celui de community manager

A suivre les usages édictés par les plateformes, à ne mesurer le « ROI » que par leurs seuls indicateurs, à ne reproduire que les traits d’humour qui ont « fait leurs preuves » (enfin leurs RTs), les stratégies des organisations s’uniformisent… Les community managers deviennent alors peu à peu des techniciens, qui sont là pour reproduire les bonnes blagues des autres (ou y répondre), presser le bon bouton après avoir payé la plateforme pour faire de la publicité ou, au mieux, maitriser Photoshop afin de rajouter du texte sous une photo de chat.

Rien d’étonnant alors de voir apparaitre, comme pour la veille en e-réputation d’ailleurs, des offres low cost. Telle celle des Pages Jaunes qui propose la création et la modération d’une page Facebook pour 25€/mois. Les professionnels du métier auront beau en rire ou être consternés, force est de constater que si le community management se résume à avoir de l’humour et suivre le mouvement, sans réussir à donner une mesure fiable de ses résultats au-delà de quelques chiffres (normal, il est difficile de mesurer une « image mentale »), alors à quoi bon effectivement investir des milles et des cents dans ce genre de stratégies ?...

 

 

4. Cela entraine une représentation biaisée des publics

Comme je l’ai souligné précédemment, la communication suppose un commun que l’affect ne permet pas. La notion de « génération Y » si chère à certains professionnels, trouve selon moi du sens ici, ou plutôt pourrait expliquer cette focalisation sur l’affect. Si nous sommes « dans un web de jeunes », alors il parait normal de faire de l’affect le principal levier de communication (car le « jeune » aime l’humour, il est globalement très sensible, c’est bien connu).

 

Mais quid des autres (jeunes ou moins jeunes) qui souhaitent entrer en contact pour des questions pratiques, qui ne comprennent pas l’humour proposé (ou qui s’en fichent royalement), qui ne s’intéressent pas aux « idées amusantes » proposées par les entreprises, etc. ? A n’évaluer ses stratégies que par les traces d’usage, et à ne provoquer l’interaction que par l’affect, les organisations ne croient s’adresser qu’à un public en demande de ce genre de contenus. Et en produit donc pour satisfaire ce public. Et exclue les autres. Et ne mesure que les interactions de ceux que cela intéresse, et ainsi de suite…

 

 

5. Cela n’aide pas à la prise de décision… et rend difficile l’insertion du web dans les stratégies globales des organisations

« Les entreprises n’ont pas encore compris l’intérêt du « digital » », « toutes les entreprises ne sont pas sur les médias sociaux »…

Ok, mais peut-on leur en vouloir si le levier le plus efficace qu’on leur propose est de faire du lol ? Si même la CIA arrive sur Twitter avec une blague, alors parler « sérieusement » du web devient légèrement difficile…Mais après tout, me direz-vous, peut être que « le web » s’en sortirait mieux s’il restait animé par un esprit potache et pas uniquement commercial (malheureusement je pense qu’il est trop tard) ?! Certains professionnels vont donc d’un côté argumenter sur le fait que le web doit être au centre de la communication des organisations, et de l’autre mettre en avant ou insister sur les stratégies ne visant qu’à générer de l’image par le biais de contenus « affectifs », faciles à digérer et donc encore plus faciles à oublier.

 

 

Au final…

 

Je m’arrête là afin de préserver votre temps de cerveau disponible, et ainsi vous laisser libre d’orienter votre attention sur des poireaux qui chantent ou des chats qui téléphonent.

Plus sérieusement, enfin moins cyniquement, le but ici n’est pas de regrouper tous les professionnels ou toutes les organisations sous la même enseigne : toutes les organisations ne cherchent pas systématiquement à produire des « images mentales », autant qu’elles ne font pas reposer leurs stratégies sur les objectifs commerciaux des plateformes.

 

De même, si une marque est à proprement parler un signe distinctif, il est alors nécessaire d’orienter les interprétations possibles. Dans le cas d’Oasis par exemple, on comprend alors mieux que le côté « fun » et humoristique colle bien avec ces interprétations voulues pour une marque de jus de fruits destinée à une tranche d’âge spécifique. Pour beaucoup d’autre la question reste (et vous est) posée ?... Après tout, et comme le disais Henri Salvador, « faut rigoler » avant que la neutralité du net, la NSA ou des drones publicitaires nous tombent sur la tête.

 

Et vous, pensez-vous que jouer sur l’affect est la meilleure stratégie ? La recherche constante de l’audience, de « l’engagement » ou du retweets est-elle la seule finalité d’une stratégie web ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
6 mars 2014 4 06 /03 /mars /2014 11:18

Google, au centre de toutes les attentions et des usages du web, vient encore de réduire ses filtres de recherche. Est-ce une adaptation aux usages réels ? Une volonté de nous insérer un peu plus dans des « bulles informationnelles » ? Ou affirmer sa volonté (intentionnelle ou non) de nous orienter vers ce qui est pertinent pour l’algorithme (et les portefeuilles des actionnaires) ?

 

Voici un petit texte rédigé dans le cadre d’un projet d’étudiants de l’IAE de Poitiers et qui devrait paraitre, avec d’autres, dans un livre blanc dans les semaines qui viennent. Il est donc à visée de "vulgarisation" (simplifié en somme -bien qu'il me semble que cela ne soit pas évident pour tout le monde...). Pour des réflexions plus poussées sur ce sujet, suivez les liens insérés dans le billet.

 

« Si tu ne sais pas, va voir sur Google »… Cette injonction, que nous avons tous entendu un jour, parait révélatrice de la place que le moteur de recherche de la firme de Mountain View occupe aujourd’hui. Comment trouver un restaurant près de chez soi ? A quelle date est sorti tel film ? Comment réparer un sèche-cheveux ? Autant de questionnements variés dont les réponses se trouvent dans le méandre de l’un des plus grands index documentaire au monde.

 

Comme souvent lorsque nous abordons la question de la recherche d’information, je demande à mes étudiants pourquoi ils utilisent Google et pas un autre moteur. Les réponses sont variées : c’est le plus ergonomique, il est par défaut dans de nombreux navigateurs, on ne connait que celui-ci… Mais la réponse phare est la suivante : parce que les résultats sont pertinents. Et c’est là toute la force de ce moteur. Des années d’affinement et de développement de l’algorithme de classement originel, le PageRank, ont permis à toute une génération d’utilisateurs d’Internet de faire correspondre les résultats du moteur à l’idée « d’information pertinente ». Mais est-ce la hiérarchisation des résultats qui est pertinente dans l’absolu ? Ou le fait de n’utiliser que Google qui, avec le temps et une certaine paresse cognitive, nous fait voir la pertinence par le prisme de l’algorithme du moteur ?

 

La réponse ne peut bien évidemment pas être si manichéenne. La question doit alors se déporter selon moi sur les critères de pertinence du moteur, tout en gardant à l’esprit que sans parler de « Google addiction » il y a bien dans notre pays une utilisation quasi-exclusive du moteur. Et que la notion même de pertinence[1] informationnelle doit être reconsidérée, et critiquée, à l’aune de ce que Google souhaite définir comme pertinent. De nombreuses recherches s’interrogent aujourd’hui sur le fonctionnement du moteur de recherche et l’emprise qu’il a sur notre quotidien de consommateurs d’information. Cette « anthropologie de l’algorithme » s’intéresse notamment aux fondements philosophiques et politiques ayant amené à la création du PageRank.

 

Les deux fondateurs de la firme ont, il faut le dire sans ambages, révolutionné le fonctionnement des moteurs de recherche. Leur principe, assez simple dans l’absolu, s’est basé sur la mesure bibliographique : plus une page web recevra de liens en provenances d’autres pages web, plus celle-ci sera bien classée (pour des mots-clés donnés) dans les résultats du moteur. Avec, bien entendu, un ensemble de critères de pondérations (statut de la page émettrice d’un lien, ou audience par exemple). Ce principe étant énoncé, il n’en reste pas moins que les effets du PageRank sur le traitement des données et la « mise en pertinence » des informations reste obscur.

 

Mais une dominante ressort néanmoins : ce qui est bien classé (le plus visible, donc le plus accessible) n’est pas ce qui est pertinent, mais ce qui est populaire. Par analogie, et toujours dans un contexte d’enseignement, cela reviendrait à demander aux étudiants : « parmi ces définitions, choisissez celle qui vous convient le mieux. Celle qui aura le plus de votes sera considérée comme définition de référence ». Si le principe est louable, et dans les faits relativement efficace, les effets en termes d’appropriation et de choix de l’information le sont moins. L’utopie des « foules intelligentes » et de la « démocratie numérique » que sous-tend en partie le modèle de Google ne résiste pas à des analyses plus profondes. Le statut accordé par l’algorithme à une page web (son volume de liens entrants, etc.) devient synonyme de son autorité, de sa légitimité à informer. C’est donc les sites ayant déjà de nombreuses interactions, faisant le plus de publicités, bref avec le plus de moyens financiers et humains, qui font autorité, laissant les plus petits sites dériver au-delà de la première page de résultats (celles « que personne ne consultent »). Et, contrairement à une certaine vision démocratique de ce fonctionnement, ce qui fait pertinence n’est plus ce qui répond à la question mais ce qui dépend du pouvoir accordé aux sites en fonction de leur respect des règles édictées par le moteur…

 

A l’heure actuelle, Google développe une nouvelle manière de classer ses résultats. Non plus en s’appuyant uniquement sur le document, mais sur l’auteur de celui-ci (l’AuthorRank). Cette « pertinence » qui fait son attractivité ne sera plus seulement renforcée par l’utilisation effrénée et sans recul du moteur. Mais elle se trouvera centrale dans notre consommation de l’information par l’ajout d’une couche algorithmique qui fait écho à nos besoins d’individuation : les résultats seront pertinents car produits et partagés par des personnes qui nous ressemblent. A force de ne trouver des réponses que par le prisme de nos pairs, ne risque-t-on pas de s’enfermer dans une cage (dorée certes) informationnelle dont seul Google aurait les clefs ?...

 

 

[1] Définissable en première instance comme la « Qualité de ce qui est adapté exactement à l'objet dont il s'agit » (selon le Trésor de la langue française informatisé)

Published by Camille A - dans Rayon Etonnement
commenter cet article
26 septembre 2013 4 26 /09 /septembre /2013 18:08

La question des données personnelles, de l’identité numérique, et in fine de la (e)réputation, crée encore de vifs débats en France. Entre les tenants d’un web lessivable à souhait, les partisans d’une régulation plus forte, et les vendeurs d’identités numériques « propres et maitrisées », ces débats n’ont pas fini d’étonner par les multiples propositions contradictoires ainsi générées. Plus que la proposition de moyen d’agir, je vous propose ici quelques réflexions sur un possible nouveau regard sur cette question de la mise en scène de soi sur les territoires numériques.

 

Si je parle de « mise en scène de soi », c’est bien entendu en référence au sociologue Erving Goffman. Dont je suis loin d’être un spécialiste, ainsi que sur les questions de dispositifs identitaires en ligne, contrairement à des chercheurs de mes connaissances comme Julien Pierre (dont je vous invite d’ailleurs à lire la très bonne –et conséquente- thèse de Doctorat sur ces sujets).

 

Mais les travaux de Goffman me semblent aujourd’hui encore éclairants sur ces questions. Et plus précisément, au vu du récent débat dans l’émission 14h42 animée par J-M Manach sur Arrêt sur Images. Dans cette émission, questionnant les futures lois concernant le « droit à l’oubli » et les prérogatives de la CNIL à ce sujet, Mme X était invitée à s’exprimer sur son cas.

Pour faire court, Mme X, ancienne syndicaliste s’étant exprimée dans les médias pour défendre les droits de ses collègues de l’époque, est aujourd’hui en difficulté pour retrouver du travail : lorsque l’on tape son nom sur Google, certaines de ses interviews « remontent à la surface », lui portant ainsi préjudice. Un « cas d’-réputation » classique en somme… Ce qui est intéressant ici, ce n’est pas tant le fait que Mme X n’assume pas/plus ses actions passées (ce qui ne semble pas le cas), mais que l’agencement de ce dit passé se retrouve en contradiction avec la mise en scène de soi actuelle qu’elle souhaite faire.

 

Mise en scène de soi théorisée par Goffman donc, pour qui (de manière très très schématique –mes excuses aux sociologues) la vie sociale peut être appréhendée comme une scène de théâtre, avec ses acteurs, ses coulisses, éléments de décors, etc. L’Homme est alors acteur de sa vie et de sa propre identité, développant une « face » (que des auteurs comme Gloria Origgi rattachent à la construction de la réputation), généralement positive, jouant sur ses interactions avec les autres (ou lui permettant a minima d’interagir). Mais l’individu est aussi porteur de « stigmates » venant contraindre/limiter/empêcher ces interactions…

 

Bref, tout ce propos introductif pour présenter l’analogie que je propose dans ce petit billet de réflexion :

==> L’identité numérique (la présence plus largement) peut être vue comme la « face », venant favoriser les interactions en ligne ou non

==> Les stigmates sont alors les indicateurs réputationnels attachés à cette présence : commentaires, notes, avis, opinions, etc.

==> Les moteurs et les plates-formes web devenant le théâtre de nos vies numériques, dans lequel s’agencent et se mémorisent les données venant participer au développement (ou à la gestion) de notre face numérique, et de nos stigmates.

 

 

La question n’est pas (seulement) celle de la donnée, mais du contexte… algorithmique

 

Lorsque l’on traite du droit à l’oubli, l’on se concentre sur la question des données, et spécialement la CNIL. Si effectivement se demander où vont nos données personnelles, qui les traitent, les diffusent, les commercialisent, etc. est légitime et nécessaire, il me semble que ces débats englobent des notions bien différentes.

Dans le cas de Mme X, et plus généralement lorsque l’on traite d’e-réputation, la question est moins celle de la donnée que du contexte dans lequel elle circule. La donnée devient information par sa mise en contexte, et sur le web ce contexte dépend principalement des algorithmes qui en délimitent les contours.

 

Sur Google, par exemple, ce n’est pas tant le fait qu’un nom soit cité dans un contexte défini qui peut poser problème, que l’agencement qui est fait de cette donnée nominative, sa mise en visibilité, sa mise en relation avec d’autres informations ou contenus. Mme X a été syndicaliste : c’est un fait qui est donné. Mais Mme X ne souhaite pas que les informations participant aux interactions futures avec d’autres individus se résument à ce seul fait. Sa personnalité est plus complexe et, surtout, la « face » qu’elle souhaite mettre en avant ne doit pas contenir cette seule information. L’algorithme de Google devient alors producteur de stigmates, de sceaux de désapprobations pour les milieux professionnels dans lesquels elle souhaite s’insérer.

 

Il me semble alors bien péremptoire de parler de suppression (les nettoyeurs) ou d’oubli : ce que l’on souhaite ne pas voir n’est pas tant une donnée, que le contexte dans lequel elle se porte à voir. Et le « problème » est alors que ce contexte est totalement indépendant de tout individu (on ne peut désigner quelqu’un chez Google par exemple), et qu’il repose sur un concept plutôt abstrait pour le commun des mortels : l’algorithme. Ici, ce PageRank se transformant petit à petit en AuthorRank et qui régit (tout du moins en France) notre « face » numérique. Algorithme qui trace les contours de ce que les autres voient de nous, de ce qui est visible au sens d’accessible autant que de ce qui nous participe à la perception (et in fine au jugement et à l’évaluation) que les autres ont de nous.

 

Algorithme enfin, qui participe à l’in-formation, au passage de la donnée (calculable) au renseignement, puis du renseignement à l’information. Questionnant alors l’autorité de ces dits algorithmes : quelle légitimité pour informer, pour contextualiser mathématiquement un ensemble de données et les rendre ainsi accessible au plus grand nombre ?

 

 

Oublier le personnal branding : vous n’êtes pas une marque mais un document

 

Notre mise en scène de soi sur le web, le développement de notre identité narrative numérique, devient alors une mise en scène algorithmique : l’on donne aux plates-formes et dispositifs web (intentionnellement ou non, par défaut ou non) les données venant participer au développement de notre « face » et de nos stigmates (notre réputation pour faire court).

Au-delà de la question d’une quelconque législation (j’y reviens ensuite), il est plus que courant de lire des discours sur le développement d’une identité numérique « maitrisée » passant notamment par la production de contenus visant à « noyer » le cas échéants les résultats (car au final c’est bien de cela qu’il s’agit : les résultats d’une computation) formant des stigmates.

 

Comme le souligne si bien Olivier Ertzscheid, l’homme est devenu (sur le web) un document comme les autres. Vous pourrez produire autant de blogs, de tweets ou de profils que vous le souhaitez, l’important sera le traitement (algorithmique) qui en sera fait. Comme un document, vous serez redocumentarisés : vos propos seront remixés, modifiés, mis dans d’autres contextes. Comme un document vous serez indexés : les sources informant sur vous-même seront mémorisées, mises en visibilité ou au contraire oubliées sans que vous en ayez une quelconque maitrise. Comme un document vos profils se verront attribuer des métadonnées et autres indicateurs participant à son indexation (like, RTs, étoiles, commentaires, etc.). Métadonnées parfois attribuées de manière pulsionnelles (comme le like de Facebook) et qui participeront activement à l’industrie de la recommandation, devenu principal moteur économique de nombreuses plates-formes. Recommandations qui, par un principe de « bulles » et de « graphes affinitaires » auront de grande chance de s’adresser aux personnes les plus proches de vous, et pour lesquels votre « face » est la plus importante (puisque que ce sont celles avec qui vous souhaitez interagir).

Etc, etc. Il est donc moins question de marque, que de marqueurs. Et surtout, il n’est pas question de maitrise…

 

Comme pour toute gestion de l’information, parler de « maitrise » est une illusion totale. Tout d’abord car il ne s’agit pas d’une seule information, mais d’informations au sens parfois différents en fonction des multiples contextes de traitement des données venant les former. Et qui plus est quand, ici, ce n’est pas tant l’information finale qu’il conviendrait de maitriser mais les contextes dans lesquels ces données sont traitées, et par extension les algorithmes qui produisent ce traitement et cette mise en contexte…

 

 

De la mise en scène à la mise en chiffre, du droit à l’oubli au droit au calcul

 

Vous ne pourrez jamais être « dans la tête » de quelqu’un lisant des informations vous concernant. Vous pourrez cependant essayer de vous mettre « à sa place ». Pour cela, il convient alors de prendre le prisme par lequel il accède aux informations vous concernant. Et ce prisme est celui du numérique, de la « mise en chiffre », de la grammatisation de votre agir et des renseignements produits par d‘autre à votre encontre. Ce calcul qui est, encore une fois, produit par des algorithmes dont vous connaissez peu de choses…

Les propositions faites par la CNIL à ce propos me semblent alors illusoires (voire inquiétantes lorsqu’elles laissent sentir un parfum de « régulation » qui, à l’heure d’un Internet bientôt « régulé » par le CSA, peut –mais pas obligatoirement- se transformer en une forme de censure). Désindexer les données des moteurs ? Difficilement applicable, et surtout très limitatif (les moteurs indexant surtout la « surface du web »). Permettre l’effacement pur et simple ? Dangereux pour notre mémoire collective à long terme (et arbitraire). Créer des archives non-indexées ? Intéressant, mais complexe tant l’unicité des documents numériques est difficile à reconstituer, et le remix la règle (met-on de côté les données « originelles », leur remix, les informations qui en sont issues explicitement ou non ?).

 

Plutôt que d’agir après coup, il parait intéressant de réfléchir à une approche proactive de la mise en scène de soi sur le web. Par analogie documentaire, plutôt que de vouloir demander le retrait d’un livre (i.e. traces/données personnelles) d’un rayonnage (Google, RSN, etc.), ne vaut mieux-t-il pas réfléchir à l’avance à comment celui-ci va être indexé afin de gérer son emplacement, sa visibilité, son accessibilité, etc. ? Pourquoi ne pas permettre à l’internaute la projection, le droit à (par avance) comprendre et circonscrire le calcul qui sera fait de ses traces, la manière dont les données le concernant seront mises en contexte par les algorithmes des plates-formes ?

Je suis (surement) utopiste, et je présume que toute simulation potentielle proposée par les plates-formes parait illusoire (même si surement déjà essayée). Demander, par exemple, à Facebook de proposer dans ce paramètres de confidentialité quelles données seront computées ou non, ou comment le seront-elles (par exemple : qui va voir tel statut dans sa timeline et dans quel contexte ?), parait aussi difficile à mettre en place que la désindexation…

 

Mais, par contre, l’éducation non plus seulement à la culture de l’information (qui n’existe pas réellement encore, hein), mais réellement à celle du numérique, et par extension des dispositifs automatiques de traitement des données et des algorithmes, est un pari qui ne me semble pas impossible à réaliser. Par expérience personnelle, avoir travailler avec de nombreux spécialistes du SEO (sans pour autant prétendre à leur niveau technique) m’a permis de mieux appréhender le fonctionnement des algorithmes des moteurs et leurs mécanismes de hiérarchisation et de mémorisation. A l’heure où des cours de « science du numérique » (approche très technicienne) s’ouvrent dans les lycées, de même que des cours d’intelligence économique, pourquoi ne pas lancer de vrai campagne de sensibilisation et de formation allant au-delà de ce que font actuellement des organismes comme e-Enfance et autre DCRI (« peur, peur, attention danger, faisez gaffe aux internets) ?

 

 

Au final…

 

Voilà pour ces quelques réflexions, qui n’apportent peut-être rien de neuf, mais qui visent principalement à circonscrire deux problématiques : les données personnelles et la mise en scène de soi sur le web.

Quel lien entre ces deux questions ? Les algorithmes.

 

Couvrir les deux problématiques ne revient pas à penser « suppression des données pour favoriser le développement d’une face numérique maitrisée ». A l’heure du « quantified self » où l’on présente le calcul des données personnelles comme un moyen de s’améliorer ou optimiser ses tâches, pourquoi ne pas offrir l’occasion à chaque internaute de définir le contexte dans lequel ils s’expriment et interagissent, en plus des nécessaires règles de « privacy » et en leur donnant les moyens de projeter leur « face numérique » par le prisme des algorithmes ?

 

Et pour faire court, je peux résumer le tout ainsi : pourquoi parler de données personnelles quand la problématique ressortant couramment (cf. Mme X) est celle de l’information participant au développement d’une réputation ? Et que ces informations sont liées au contexte algorithmique de nos mises en scène numériques ? La confusion dans certains discours montre que de nombreuses réflexions restent à développer…

 

Published by Camille A - dans Rayon Etonnement
commenter cet article
18 juin 2013 2 18 /06 /juin /2013 12:10

GG-RREader-fermetur.jpgEt ce pour redéfinir leurs pratiques, s’orienter vers de nouveaux formats ? Qui plus est pour l’e-réputation ? C’est par ce constat (et d’autres) que j’ai introduit ma conférence au CNAM organisée par l’ADBS et l’INTD. Au-delà des slides de cette conférence, ce billet est l’occasion de lancer un (potentiel) débat sur le sujet, ou tout du moins de s’interroger un peu.

 

Les métiers de la veille, et spécifiquement pour l’e-réputation, sont en constante évolution : nouveaux territoires, nouveaux usages, nouveaux outils, formats, plates-formes, etc, etc. Depuis 1 ou 2 ans, et la démocratisation de la veille sur le web, il me semble que ces évolutions vont encore plus vite. Au risque de laisser certains veilleurs sur le bord de la route ?...


Dans cette conférence j’ai esquissé plusieurs constats que j’ai déjà détaillés sur le blog (l’e-réputation sous quatre prismes, et la veille comme un métier de super héros), et que j’aborderai en profondeur dans de futurs billets : la question de la « veille ordinaire » (i.e. de plus en plus de collaborateurs ont accès à l’information), celle des « big data », la séparation de plus en plus net entre une approche CRM et une approche managériale… Et surtout, cette distinction nécessaire : le veilleur n’est plus là pour produire des résultats, mais pour produire du sens. Sinon, il ne devient lui aussi qu’un outil…


Mais dans ce billet donc, c’est plutôt l’idée de la disparition de Google Reader comme une opportunité plus que comme une fin en soi que je souhaite rapidement détailler ensuite.


Voici donc tout d’abord ma présentation, et je vous invite à lire ce billet sur le blog de l’œil au carré pour avoir plus de détail quant à ce qui s’est dit lors de cette conférence.

 

 

 

 

La fin de Google Reader : le petit séisme beaucoup trop amplifié…

 

Quand Google a annoncé la fermeture de son agrégateur, certains veilleurs ont craint pour leur « survie » : mais comment va-t-on faire ?


Pourtant il existe de nombreux autres agrégateurs ! Pourtant d’autres sont en passe d’arriver !


Oui mais Google quoi : si l’on utilise déjà ses moteurs, ses outils de stockage de documents, sa boite mail, etc… Dur de passer à autre chose, non ? Surtout quand les autres outils ne sont pas Google Reader (fatalement)…


Bref, comme toujours souvent, le changement c’était mieux avant. Clairement, GG Reader est un bon agrégateur (pas mon préféré, mais passons), plutôt stable, avec de nombreuses fonctionnalités, et j’en passe. Ok.


Mais sérieusement : est-ce les fonctionnalités de GG Reader qui « manquent aux autres agrégateurs », ou est-ce une pratique trop assidue (et généralement unique) de cet outil qui voilent les yeux des utilisateurs qui, comme lorsqu’ils utilisent un autre moteur que Google, trouvent que « ça ne fonctionne pas comme Google » ? Autrement dit, ce séisme lié à GG Reader n’est-il pas causé par un non-renouvellement des outils utilisés par les veilleurs, voire des pratiques ? Je comprends tout à fait la difficulté lorsqu’on a la tête dans le guidon de passer à autre chose, de tester de nouveaux outils ou de redéfinir en profondeur ses pratiques. Mais là le choix devient pressant : que feront les veilleurs quand Google supprimera les flux RSS de ses plates-formes ? Voire (pire !) proposera un outil de veille clé en main ?...


De plus, et au-delà des questions de rentabilité, les arguments de Google sont intéressants : la mort annoncée du flux RSS donc, la personnalisation accrue des résultats, des systèmes de recommandation de plus en plus sophistiqués, et (surtout) de nouveaux usages et de nouvelles formes de consommation de l’information (en ligne, voire tout court).


Nouvelles formes d’accès, de tri, de lecture, et globalement de consommation de l’information qui me font entrevoir la fermeture de Google Reader comme une opportunité pour le métier de vielleur, plus que comme une fin en soi. Qui plus est pour l’e-réputation.

 

 

La fin d’un outil. Le début de nouvelles pratiques ?

 

Plus que la fin d’un agrégateur, ou la fin des formats RSS ou ATOM (qui me semble plus que probable dans les années à venir), je vois ici une opportunité de redéfinir les pratiques de veille (et spécifiquement en e-réputation –comme je le dis dans les slides ci-dessus). Et cela car :


==> La fin de GG Reader a affolé de nombreux veilleurs-documentalistes, qui se sont (enfin ?) questionnés sur leurs pratiques en allant plus loin que l’outil ;


==> Je connais quelques agences qui ne vendent exclusivement que de la veille faite sur GG Reader (et cher en plus –oui, oui) ;


==> N’importe qui peut utiliser un flux RSS… « Oui mais l’analyse ? ». Et bien l’analyse c’est un spécialiste du métier qui la fera. Ou un « data scientist » ;


==> A trop se définir par la technique (ou son outil), on devient un presse bouton


En somme, voici le coup de fouet qu’il fallait


Les alternatives sont nombreuses, je les cite rapidement dans les slides, et les égraine tout au long de ce blog depuis quelques temps. Mais plus que des alternatives, il me semble qu’il s’agit surtout de redéfinir son métier et sa place dans l’organisation : de collecteur-documentaliste à data analyste (aspect technique). De veilleur-analyste à manager-qualiticien de l’information. Plus précisément, cela suppose la prise en compte de certains points, la définition de nouvelles pratiques :


==> La recherche de nouveaux formats autres que RSS ou Atom (comme Json par exemple). Ou, a minima, la mise en place de traitement des flux allant plus loin qu’un simple agrégateur (Yahoo Pipes par exemple, mais rien ne garantit sa pérennité aussi) ;


==> Le passage de la surveillance à la captation : ne plus « attendre que les résultats remontent, puis les trier », mais bien définir préalablement les filtres de collectes puis aller directement capter les données par le biais des API (avec tout ce que cela implique) ;


==> Apprendre à travailler avec des codeurs/développeurs/informaticiens, et donc s’initier à certains langages (PhP ou XML par exemple). Et cela pour pouvoir développer ses propres outils,  « dialoguer » avec les API, ou au mieux avec des développeurs…


==> Le développement de vraies stratégies de « recherche sociale » s’appuyant sur la curation recommandation/prescription des internautes. Et ce, encore une fois, afin de produire du sens plus que des résultats.

 

 

Au final…

 

Je pourrais citer des arguments ou des solutions voire des « alternatives » (i.e. faisons du vieux avec du neuf) plus longuement. Mais contrairement à mon habitude, je ne vais pas vous noyer dans ce billet #youpi.


Sans prétention aucune, j’espère que ce billet va permettre un (mini) débat qui ira plus loin que le « comment remplace-t-on GG Reader ? » ou « mais comment va-t-on continuer à travailler sans Google (tout court) ? » (ce qui est assez inquiétant je trouve, mais peut-être suis-je le seul ?).


Voilà pour ce petit billet d’étonnement du jour, n’hésitez pas à me donner votre avis, ou à me questionner sur les slides de ma présentation.

 

Et pour vous, en quoi la fermeture de Google Reader va-t-elle modifier vos pratiques ? Comment envisagez-vous à plus long terme la veille (en e-réputation ou non) ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
7 janvier 2013 1 07 /01 /janvier /2013 17:18

Veille-technique-2-copie-1.gifLes veilleurs ne risquent-ils pas de devenir d’ici peu des « presse bouton » ? Pour entamer l’année 2013, que je vous souhaite belle et pleine de réussites ), voici quelques constats et réflexions sur le devenir du métier de veilleur (voire de la veille ?). L’objectif ici est plus de susciter le débat (certes peu enchanteur en ce début d’année), que d’apporter des solutions toutes faites ou des bonnes recettes à appliquer.


J’aurais pu formuler différemment le titre de ce billet : est-ce que trop de technique tue la technique pour la veille ? Doit-on systématiquement industrialiser la veille sur le web ? Ou encore, doit-on repenser la place des outils dans nos activités ?

 

Le philosophe Bernard Stiegler pourrait dire (en caricaturant un peu sa pensée) que tout est technique. Plus que des techniques donc (indissociables de la veille et la recherche d’information sur le web) il convient de parler ici de technologies.


Loin de moi l’idée d’être technophobe (j’aime bien décortiquer les outils et ne remet pas en cause leur utilité), mais plutôt de partir de plusieurs constats et de questionner ici l’importance grandissante des outils et autres algorithmes dans les pratiques de veille. Voyons ces constats…

 

 

Constat n°1 : l’humain n’est pas fiable. Les statistiques le sont-elles plus ?

 

Dans une étude publiée en 2009 Lesca et al. soulignaient, parmi d’autres choses, que la faible utilisation par les dirigeants des informations issues des cellules de veille stratégique est due à plusieurs présupposés. Ceux à retenir ici sont que : les dirigeants trouvent les informations fournies trop nombreuses et faibles en significations ; et « L'interprétation des informations anticipatives et des signaux faibles relève davantage de processus cognitifs imaginatifs et créatifs des personnes que de modèles et de traitements informatiques statistiques classiques ».


Le deuxième présupposé (pour ma part et par expérience il me semble plutôt que c’est un constat assez général) est intéressant : quand de nombreuses grandes entreprises françaises sont dirigées par des ingénieurs, les modèles statistiques paraissent plus fiables que la compréhension humaine de faits humains. La mise en signification que l’on demande à un veilleur (la mise en forme du renseignement, l’in-formation) doit reposer sur des méthodes permettant d’arriver pour tous au même résultat, à la même interprétation. Ce qui est bien entendu impossible par essence…


Mais Zorro les « Big Data » sont arrivées : avec moins de travail humain, on peut mathématiquement donner du sens à une donnée et produire une information ! Si certain(e)s se questionnent justement sur ce peu de travail humain toujours nécessaire (une cartographie, fusse-t-elle très jolie et interactive, ne signifie rien en soi, c’est un élément de preuve), d’autres font le choix de s’appuyer sur des outils et algorithmes dont ils connaissent peu les tenants et aboutissants, mais qui au moins paraissent plus fiables que leurs collaborateurs. Magie toujours : la veille qui se veut anticipative trouve là un allier de choc, puisque les statistiques semblent permettre l’anticipation (l’humain étant par nature prévisible).


Premier constat donc : si notre métier doit passer par le traitement et la visualisation de grands jeux de données (pas le choix, il s’agit juste d’une mise en adéquation entre l’offre et la demande), il est nécessaire d’apporter des compétences en plus. Qu’elles soient méthodologiques, d’analyses ou tout simplement pour réinjecter de l’humain dans l’automatisation. Les formules mathématiques ne peuvent servir constamment d’alibi (ce sont les « données qui parlent »), au risque de ne plus que presser des boutons de calcul (et au mieux produire les algorithmes, mais là on passe à d’autres compétences). Donner du sens pour permettre la prise de décision doit rester inhérent au travail de veille.


 

Constat n°2 : la veille comme compétence

 

Dans La veille est un métier, pas une compétence… je soulignais (abruptement pour créer le débat) que la veille, spécifiquement sur le web, est devenue une activité ordinaire pour de nombreux professionnels. Notamment car les outils dédiés sont accessibles (en termes d’usages), que les besoins sont de plus en plus nombreux, etc.


Sans vouloir refaire ici les mêmes constats, l’on peut noter qu’en croisant celui-ci avec le constat précédent l’on comprend un peu mieux certaines offres d’emplois : plutôt que recruter un veilleur et le former au domaine d’activité, on va recruter un ingénieur (par exemple) et le former à la veille. Car les outils sont facilement accessibles, car ce qui compte c’est plus l’analyse et le conseil que le traitement de l’information en elle-même. L’e-réputation à cette particularité que (pour l’instant) la manière de traiter l’information parait plus importante que la connaissance d’un secteur d’activité précis. Mais à l’avenir ? Devra-t-on tous retourner à l’Université pour obtenir un nouveau diplôme ? Il semble que là aussi si la seule compétence d’un veilleur est technique (faire marcher un outil), qu’elle ne va pas plus loin dans l’accompagnement pour la prise de décision et que les compétences du dit veilleur ne s’intègrent pas globalement aux besoins informationnels de l’organisation, alors il ne reste plus qu’à se spécialiser (ou devenir consultant, mais là aussi les places sont chères).


 

Constat n°3 : la veille s’industrialise

 

Comme l’e-réputation… Et comme toute activité humaine depuis deux siècles pourrait-on même dire. Qui dit industrialisation dit réduction des coûts, automatisation des tâches, « maîtrise de l’outil de production », etc. Donc focalisation sur les outils.


Pour ma part, je reçois souvent des CV où la « maîtrise » d’un ou plusieurs logiciels est mise en avant. Bien. Mais si nous n’utilisons pas ce logiciel de veille ? Si l’activité suppose aussi du management, ou une part de gestion des connaissances ? Si j’ai déjà une direction du CRM et une autre des études qui fait du quantitatif ? Et au fait, si des consultants peuvent aussi  faire tourner l’outil, vais-je vous recruter ?


Démontrer que l’on peut s’insérer dans la chaine de montage décisionnelle est une bonne chose. Mais à trop se spécialiser, à trop mettre en avant que l’on est expert d’une « machine », on apparait moins indispensable…


Loin de moi l’idée de dire qu’il faille moins de personnes opérationnelles, au contraire, je rencontre plus d’étudiants « futurs responsables de l’IE » que voulant mettre les mains dans le cambouis. Mais se définir seulement par un outil et par sa capacité à l’utiliser répond à des besoins spécifiques et limités dans le temps…  On peut noter qu’aux USA les métiers sont par ailleurs souvent séparés : le dataminer cherche l’information, l’analyste l’analyse. Les formations universitaires actuelles (et de plus en plus nombreuses) devraient alors s’interroger sur la pertinence de partenariats avec  un seul éditeur, autant que sur des approches parfois stratosphérique sur la veille (difficile « juste milieu »)…

 

 

Constat n°4 : la veille par les réseaux, un nécessaire besoin managérial

 

Si les outils prennent le pas sur l’humain, car ils paraissent plus fiables et surtout moins couteux, le développement de la curation recommandation sociale sur le web réinterroge notre métier. Etant donné le volume d’articles à ce sujet sur ce blog, pas la peine de revenir sur ce phénomène.


Mais cet appui sur les pratiques informationnelles des internautes associé au développement de la veille comme une compétence à part entière de nombreux métiers, faire ressortir de mon point de vue les besoins en management : management des sources d’informations, management des collaborateurs ayant des besoins en veille, ou encore accompagnement de ceux en faisant déjà de leur côté.


Petit à petit le métier de veilleur va donc moins s’orienter vers la seule utilisation d’objets techniques, mais vers une gestion plus large des données collectées sur diverses sources : qualification des sources, mise en contexte et en signification des diverses études produites, définitions d’indicateurs pertinent pour l’entreprise, sensibilisation à l’importance de l’information et de son traitement, animation des « réseaux de veilleurs », etc.


Plus qu’un collecteur/analyste, le veilleur va-t-il devenir un « référent qualité » de l’information en entreprise ? Il ne s’agit ici que d’une intuition (prenez là comme ma prédiction pour 2013 ). Voire d’une proposition pour les actuels ou futurs veilleurs dont chaque restructuration entame quasi-systématiquement leurs budgets ou modes de fonctionnement. Car quand les outils ne fourniront plus de résultats mais des réponses, quid de celles ou ceux étant là pour générer des résultats et les transformer en réponses ?


 

Constat n°5 : des algorithmes paraissant irremplaçables

 

Avez-vous remarquez que Google Actualités propose maintenant des « articles de fond » ?!


Veille-technique-1.jpg


Quel fond ? Quels critères ? Google arrive-t-il à donner du sens aux informations ? Se base-t-il seulement sur votre historique ? Sur les citations ?


Par ce capitalisme linguistique et cette économie de l’expression propre à Google l’on voit émerger une fois de plus des formes de mise en signification spécifiques aux algorithmes. Seriez-vous prêt à envoyer à un décisionnaire un article jugé comme « de fond » par Google sans même le consulter ?


On peut supposer que non…aujourd’hui. Google développe ces fonctionnalités pour orienter l’attention, éviter la surcharge cognitive : tout comme le veilleur dans l’organisation ! Mais si les critères du moteur le plus utilisé en France deviennent au fil du temps une référence (et comme c’est déjà le cas pour certains aspects comme la pertinence, l’autorité ou la popularité), que feront alors les « veilleurs presse bouton » ? Qui plus est si le traitement automatisé et algorithmique de l’information parait plus fiable aux dirigeants…

 

 

Pas de solutions mais quelques réflexions

 

Si certains de ces constats se confirment dans l’avenir, il apparait nécessaire de penser à la suite. Point ici de solutions miracles, mais quelques réflexions qui méritent discussion (comme les constats en eux-mêmes d’ailleurs) :


==> Intégrer systématiquement des questionnements et critiques sur les outils. Pour avoir lu de nombreux articles sur la veille et assisté à beaucoup de conférences ou grands raouts dédiés, rare sont les remise en cause que j’ai pu lire ou entendre. Présenter un outil, son utilité et ses performances est nécessaire. Montrer ses limites l’est parfois encore plus. Si les dirigeants sont persuadés que l’analyse statistique est plus fiable que l’analyse humaine, alors autant ne pas aller en tant que professionnels dans le même sens.


==> Ne plus nous définir par nos capacités de traitement (du volume, toujours plus de volume), mais au contraire par le fait de pouvoir traiter des volumes plus réduits et pertinents, et surtout plus riches en significations. Traiter automatiquement des grands volumes de données : ok. Les mettre en forme, leur donner du sens par leur visualisation : ok. Mais la vraie valeur du veilleur ne vient-elle pas de sa capacité à produire du sens avec peu d’informations ? Qui plus est quand les décisionnaires en veulent peu.


==> La veille ne se limite pas à la collecte. Collecter ou visualiser de l’information doit toujours être pensé en fonction du processus décisionnel. Plus facile à dire qu’à faire, certes, surtout lorsqu’il s’agit de faire la part entre le rôle opérationnel et celui de management. Au final, la veille ne devient-elle pas un métier de gestion de processus faisant appel à de nombreuses autres compétences (datamining, visualisation, etc.) ?


==> Faut-il ne plus voir la veille comme un métier portant sur des « objets » (le document, les outils de veille, les moteurs de recherche, etc.) mais plutôt comme une activité visant à donner du sens à la donnée ? Un métier visant à une compréhension de l’agir des internautes (pour l’e-réputation) et sur une interprétation en vue d’une décision? Bref, comme le développement d’un nécessaire point de vue sur l’information allant au-delà des besoins business et à court terme. Avec les risques que cela implique mais qui me semblent tout autant « dangereux » que ceux induits par l’utilisation non-réfléchie d’outils.

 

 

Au final…

 

J’ai l’habitude de commencer l’année par un billet plus pragmatique, et peut être moins alarmiste (bien que ce n’était pas le but ici). Mais, au-delà de ma jeune expérience, ces différentes réflexions partent de discussions récentes avec des collègues ou amis veilleurs. Beaucoup s’angoissent non pas d’intégrer de nouvelles technologies/techniques, mais de leur rôle dans le processus décisionnel qui s’amoindrie de jour en jour.


Peut-être que « presse bouton » est un peu fort. Peut-être que parler d’avenir de la veille est un peu fort aussi. Mais l’idée est là : la veille est en constante évolution, pas dans le fond mais dans la forme. La forme ne doit pas alors prendre le pas sur le fond. Outils, appellations, missions, positionnement hiérarchique : s’adapter est nécessaire, mais cela mérite réflexion.

 

Et une réflexion collaborative : le débat est ouvert…


De même, si certains d’entre vous souhaitent organiser un débat à ce sujet (pour et avec des professionnels) alors n’hésitez pas à me faire signe .


Et vous : comment abordez-vous la place prépondérante des technologies et techniques dans la veille ? Quelles sont les opportunités ou risques à plus long terme ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
1 octobre 2012 1 01 /10 /octobre /2012 13:55

Fin-Twitter.jpgOu pas ?... Petit rapport d’étonnement cette semaine : si le volume d’informations et de conversations ne cesse d’augmenter sur le réseau à gazouillis, les possibilités de gérer ces dites informations ou conversations ne font, elles, que diminuer. Au risque de perdre ses attraits en matière de veille, gestion de l’information, etc. ?! Voyons quelques arguments pour et contre !

 

 

A préciser d’emblée : Twitter va (surement) continuer à faire circuler des millions d’informations passionnantes, utiles, choquantes, amusantes, etc., dans les années à venir. La question n’est donc pas « les ressources » en termes de volume, mais les ressources en termes de qualité de traitement possible (pour ne pas tomber dans « l’infobésité » ?).


Comme nous allons le voir, les modifications constantes de Twitter pour s’orienter vers une plate-forme » plus « annonceurs-friendly » voire « mainstream » peuvent questionner de nombreux professionnels de l’information (et le font déjà) des journalistes aux veilleurs en passant par les community manager ou autres utilisateurs « professionnels » de ce réseau. Et cela n’est d’ailleurs pas sans rappeler… Myspace !

 

 

Twitter le futur nouveau MySpace ?

 

Oui, je sais, comparer Twitter à MySpace est un peu capillotracté… Mais cela part d’un constat personnel, dont je vais vous faire part rapidement (et sans trop de lyrisme ).


J’ai commencé à utiliser MySpace en 2006 pour promouvoir les musiciens et artistes de l’association que je présidais à l’époque. De 2006 à 2008, tout se passait pour le mieux et avec une relative simplicité dans les usages : diffusion de morceaux et création d’une audience, contacts promotionnels avec des labels ou autres associations, mise en place de collaborations et autres featuring, échanges avec le public venant aux concerts que l’on organisait, etc, etc. Bref : MySpace remplissait pleinement l’objectif qu’il s’était fixé, permettre aux musiciens et autres artistes de diffuser leurs création et d’échanger entre eux…


Mais, à partir de 2008, les choses se sont accélérées : des changements constants dans l’interface et l’utilisation du site, les possibilités de diffusions externes des morceaux mis en ligne s’amenuisent, la possibilité d’intégrer des applications tierces disparait quasiment, la souplesse de mise en page des comptes disparait en grande partie, de plus en plus d’options de « mise en relation » souvent inutiles apparaissent, MySpace semble ignorer Facebook et d’autres réseaux, la publicité devient plus qu’omniprésente, le spam se démultiplie en conséquence… Bref : MySpace perd de sa souplesse d’utilisation au profit d’un repli sur soi toujours plus grand dans sa course effrénée à une maitrise totale de son fonctionnement. Et la plate-forme y enferme au passage ses utilisateurs… Qui migrent alors peu à peu vers des contrées plus libres, souples et musicalement intéressantes (Facebook pour la promotion, Soundcloud pour le contact avec les autres artistes, etc.).


Et si Twitter suivait le même cheminement ? Si ses modifications constantes n’allaient pas faire fuir progressivement les utilisateurs souhaitant se servir de l’outil pour la gestion de l’information, et pas juste comme outil de conversation ?


Comme MySpace qui a souhaité attirer les utilisateurs non-musiciens sur son réseau au détriment de ceux qui faisaient vivre la plate-forme (les artistes –tout du moins c’est comme ça que je l’interprète schématiquement), Twitter ne va-t-il pas faire fuir progressivement ceux qui alimentent en information le réseau (et lui donne une partie de sa valeur) pour favoriser les utilisateurs conversant (ce qui est, me direz-vous, la base même du réseau à l’origine) ?

Il y a un an, je soulignais l’arrivée des ados sur Twitter, en me questionnant : Du branding aux kikoo tweets, où va la démocratisation de Twitter ?


Qu’en est-il maintenant ? Voici quelques arguments plaidant dans les deux sens…

 

 

Twitter va-t-il nous mettre en cage ?

 

Et ainsi diminuer son utilisation pour la veille par exemple. Enfin, gratuitement et aisément, car comme le souligne cet article, il est (et sera toujours) possible de payer Twitter pour accéder à son Firehose et ainsi récolter de nombreuses données.


Mais comme le souligne un article récent (au titre assez explicite sur la manière dont est perçu Twitter par certains pros de l’information) Pourquoi les journalistes devraient se méfier de Twitter, il y a d’autres raisons. Dont voici une synthèse rapide :

 

 

==> La suppression des RSS : rester dans une logique de flux


Twitter annonce que, le 5 mars 2013, il supprimera la possibilité d’obtenir des flux RSS (après avoir supprimé les boutons dédiés), tout du moins sans passer par son API. Alors, oui, il sera toujours possible de suivre certains mots-clés, en fonction des applications tierces qui auront obtenues l’agrément Twitter. Oui, il y aura surement des nouveaux langages utilisés (Json apparemment) qui permettront de « faire comme »… Mais voilà, le constat est là : utilisateurs de flux RSS, passez votre chemin…ou passez à autre chose !


Twitter comme « outil de veille » privilégié, que de nombreux consultants/formateurs prescrivent, que de nombreux veilleurs/documentalistes/CM utilisent, risque d’en prendre un sérieux coup. Même si l’on pourrait remettre en question, au final, l’utilité des formats RSS ou ATOM, le fait est là : soit vous utiliserez Twitter pour la veille par des applications tierces dont vous ne pouvez mesurer tout l’impact sur le traitement de l’information et sa collecte. Soit, vous suivrez Twitter en « temps réel » et trouverez des astuces pour stocker vos tweets par exemple (mais j’y reviendrai plus précisément dans un billet). Fini la logique de stock et de prise de recul : rentrons dans le flux Twitter, et laissons nous guider.


Cela, en plus, fera augmenter l’audience de la plate-forme (ce qui signifie une monétisation plus facile). Et de toute manière Twitter propose maintenant un résumé de ce que diffusent vos abonnements, alors à quoi bon…

 

 

==> Une API de plus en plus contrôlée = des applications de moins en moins nombreuses et pertinentes


Ce qui a fait le succès de Twitter, pour les professionnels de l’info me semble-t-il, est en partie la constellation d’applications tierces permettant de gérer, calculer, mesurer, etc., les tweets circulant sur le réseau. Eh bien, comme l’annonce toujours Twitter, cela devrait être bientôt finit ! Seules les applications homologuées qui se plient donc aux exigences de Twitter, et qui, fatalement pour le développement du business dudit Twitter, seront moins performantes que celles proposées par la plate-forme (ce qui n’est pas le cas aujourd’hui), seront en ligne…


Du coup, là-aussi, l’amenuisement de la pluralité de traitements possibles de l’information risque de faire grincer des dents à plus d’une personne. Car si au final les applications proposées par Twitter génèrent peu de valeur ajoutée (comparativement aux autres et aux attentes), alors vers quoi se tourner ?...


Pour l’anecdote, mon application Hootsuite sur Androïd , ne m’envoie maintenant les notifications que une heure après celles de l’application Twitter…


 

==> Non-affichage du nombre de followers + suggestions = navigation contrôlée


Twitter réfléchirait à supprimer l’affichage du nombre de followers sur les comptes… Les arguments (qui se tiennent) tournent surtout autours de la diminution de « faux followers » et autres bots visant à gonfler artificiellement les statistiques de certains comptes. Et ainsi éviter le spam. Et ainsi éviter le personnal branling au passage (diront certain(e)s).


Soit…


En parallèle, Twitter réfléchie aussi à recommander directement par mail certains utilisateurs pouvant être pertinents.  Comme le souligne Flavien dans son billet, cela amène vers une approche plus qualitative du réseau (moins orienter sur « qui a la plus grande communauté »).


Certes…


Mais cela suppose aussi de moins grandes possibilités de choix : si le volume de followers n’est pas déterminant en soit, il est pour autant utile de le connaitre pour répondre à certaines questions (qui est le plus écouté sur tel sujet, quel(s) potentiel(s) pour tels sujets, etc.). Mais aussi, pourquoi pas, comme point de repère dans la mise en place de stratégies de développement de sa présence en ligne (même si cela ne doit pas être le seul critère bien entendu).


Oui mais : Twitter va proposer son propre indicateur « d’influence » (et ainsi faire concurrence à Klout)… Ah, encore une gestion et un calcul dont on connaitra très peu de choses…


Et les recommandations permettront de développer la serendipité, tout en se basant sur des critères plus « objectifs ». Et cela en nous prenant par la main, au risque de faire perdre un peu ce côté « far west » propre à Twitter, où l’on découvre des gens par l’intermédiaire d’autres, où se sont parfois les informations diffusées ou certains discours qui nous font suivre une personne plutôt qu’une autre…


Oui mais : il y aura toujours le moteur de Twitter pour trouver de nouvelles personnes à suivre. Ah bon ? J’aurai plutôt tendance à parler de bulles…

 

 

==> Twitter : un oiseau en bulle ?


Lorsque vous utilisez le moteur de Twitter, vous n’obtenez généralement que les tweets en provenance de vos abonnements/abonnés et de leurs contacts. Si ce constat n’est pas nouveau, il demande à être réinterroger à la lumière de la diminution des applications tierces qui va continuer.


Au final : soit vous payez l’accès aux données, soit vous vous contentez de résultats plus ou moins partiels, qui varient en fonction des applications et des modifications constantes des API. Bref, vous restez de plus en plus dans le territoire que vous délimite Twitter qui, comme Facebook ou Google, vous incite à vous replier (d’un point de vue informationnel) sur vous-mêmes… et vos contacts.

 

 

==> De la publicité et des ados : le cocktail gagnant de la monétisation ?


Comme je le disais en intro, j’ai abordé l’arrivé des ados sur Twitter il y a un an déjà. Le débat revient depuis la rentrée (et je vous invite [encore !] à lire ce billet du Modérateur sur la question). La question n’est pas de savoir si oui ou non voir des blagues lycéennes ou les dernières actus de Matt Pokora en Top tweets est intéressant (pour moi c’est tout vu), mais plutôt de se demander : Twitter ne va-t-il pas essayer de capitaliser sur cette audience plutôt qu’une autre ?


Sur des timelines où les principaux échanges sont non-hypertextuels, où les informations diffusées sont principalement « amusantes » (Tumblr en tête en ce moment), ou questionnables d’un point de vue de leur qualité (cf les comptes comme « infos à savoir »), insérer de la publicité est un fort enjeu.


Avec les flux RSS qui disparaissent, il devient plus facile d’attirer l’attention sur des publicités. Mais si l’on suit beaucoup de comptes (ou l’on traite beaucoup d’infos), la pub devient vite une overdose. Et peut faire fuir celles et ceux qui ne souhaitent pas « consommer Twitter » mais juste s’appuyer sur l’outil pour accéder à certaines données. Même s’il est difficile de ne pas comprendre pourquoi Twitter développe la publicité (il faut bien vivre), espérons que cela ne se fasse pas de manière mal réfléchie (en termes de quantité et de ciblage)… Et que, comme pour MySpace, les journalistes et autres pros de l’information dont la veille et la diffusion d’informations à tant attiré les médias et les utilisateurs, ne soient pas oubliés par la firme.

 

Ces 5 arguments/constats ne sont bien entendu pas les seuls (les commentaires vous sont ouverts ). Et, d’ailleurs, d’autres plaident pour l’intérêt de Twitter en termes de gestion de l’information. Voyons rapidement lesquels.

 

 

Twitter : un outil de gestion de l’information des conversations


Car les points présentés précédemment, les évolutions de la plate-forme, n’amènent pour les gestionnaire de l’information (et surtout de la communication en fait) que des difficultés ou des aspects négatifs :


==> Etre dans le flux pour être dans la discussion


Si « être dans le flux »ne permet pas de prendre du recul, il permet néanmoins d’être réactif. Et ce, par exemple, dans le cadre d’une stratégie de SAV ou lors d’un événement. Twitter va donc renforcer cet aspect, et ainsi favoriser (pour les organisations en priorité) les possibilités de l’outil. Les community manager seront plus facilement « connectés »  à leurs publics et leurs audiences, ce qui ne fera que favoriser les stratégies communautaires, et renforcer Twitter comme une sorte de « chat » entre internautes et organisations.


Cela devrait notamment inciter à une réflexion plus poussées sur la gestion de son compte Twitter (pourquoi suivre 10000 personnes ?). Et se tourner vers l’identification précise de filtres humains.

 

==> Mieux gérer son public… et ses investissements


Si comme le souligne Flavien, le nombre de followers peut inciter à ne faire que du quantitatif, et qu’en parallèle Twitter propose ses propres indicateurs (basés sur l’attention portée aux Tweets), alors là encore pour les entreprises, il s’agit d’un véritable avantage. Quitte à être dans le flux, alors autant avoir à sa disposition des outils pour choisir rapidement à qui s’adresser ou non, avec quelles opportunité ou quels risques à la clé.


Dans la même approche, le fait de pouvoir agrémenter son profil public, ne peut être qu’un plus dans les stratégies de présence des entreprises. Les professionnels du marketing pourront ainsi reparler sérieusement « d’identité de marque », certains comptes pourront sortir du lot non plus seulement grâce aux informations qu’ils diffusent ou aux conversations qu’ils engendrent, mais aussi par leur aspect graphique.


Enfin, l’arrivée de la publicité et l’élargissement du public, ne feront que conforter Twitter comme un possible investissement dont la rentabilité peut être calculée de manière plus précise.

 


==> Enfermement des API = éditeurs plus aventureux


Si Twitter « oblige » les utilisateurs à ne passer que par certaines applications, que les flux RSS disparaissaient, etc., gageons que cela incite certains éditeurs de logiciel à proposer des outils (même payants) plus poussés, avec des possibilités de traitement plus grandes.

Sauf si, d’ici là, Twitter ne propose pas son propre outil aux entreprises ?...

 

En résumé, des « arguments » qui peuvent être à la fois perçus comme positifs ou négatifs, en fonction des objectifs que l’on se donne…

 

 

Au final…

 

Comme toute chose, et encore plus vite sur le web, Twitter change. Je n’ai pas voulu donner dans ce billet l’image d’un nostalgique qui pense que « c’était mieux avant ». Non, l’idée est ici de montrer que Twitter est une plate-forme utile pour les gestionnaires de l’information (et que, personnellement, c’est un réseau que j’apprécie beaucoup). Et que les différents changements passés/en cours/annoncés vont nécessiter de repenser l’utilisation que l’on a de cet outil (car oui, je le vois pour les pros de l’info comme un outil).


Au-delà de « l’affection » que je peux avoir pour Twitter, si celui-ci ne me permet plus de m’en servir d’un point de vue professionnel, alors je vais réfléchir à l’intégrer différemment dans mes activités. Comme MySpace… Et si un autre outil me permet d’avoir des approches similaires, et de gagner en souplesse d’utilisation et de collecte/traitement de l’information, alors j’irai surement sur cet outil. Comme MySpace… Ce qui n’empêche pas Facebook d’exister (mais les objectifs d’utilisation son différents) ou MySpace de tenter une renaissance. On ne pourra pas « remplacer » à proprement parler Twitter, mais il perdra au fil du temps de son importance pour certaines activités professionnelles.


Au-delà, Twitter est un bon outil conversationnel, et les pratiques de gestion de l’info doivent à mon avis se cristalliser autours de cet aspect : ne plus survoler le réseau, mais s’immerger pour gagner en valeur ajoutée (avec les précautions que cela demande).

Bref, s’adapter aux modifications à défaut de voir la plate-forme prendre en compte certains usages.

 

Et vous : comment appréhendez-vous les différents changements de la plate-forme ? Vont-ils impacter vos usages professionnels ou personnels ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
18 septembre 2012 2 18 /09 /septembre /2012 13:19

Infobesite-1.jpgL’infobésité (buzzword s’il en est) n’est pas un concept nouveau, mais devient ces derniers temps une sorte de marronnier : trop d’informations, trop de mails, trop de données… Seulement, si le terme en lui-même est contestable (bien que parlant, nous verrons pourquoi), il semble qu’il soit à l’heure actuelle mal employé. Plutôt que de se focaliser sur la « surcharge informationnelle », pourquoi ne pas se questionner sur la qualité de ces informations ?

 

En rentrant de vacances j’ai, comme beaucoup de « travailleurs de l’information », retrouvé mes agrégateurs, boites mails et autres réceptacles informationnels, « légèrement » surchargés. Là où, de prime abord, j’aurais pu crier « trop d’infos tue l’info », j’ai commencé par en faire le tri puis la lecture. Et, bizarrement, j’ai plutôt bien digéré toutes ces infos et données… Car (et c’est le centre de mon propos) : si infobésité il y a, il s’agit plus d’une question de ce que l’on ingère et la manière dont on l’ingère, que de quantité. Comme pour la nourriture en somme (et désolé d’avance mais ce billet sera truffé d’analogies gastronomiques ).


De plus, j’ai pu lire de nombreux articles sur la question de l’infobésité qui semble-t-il a animé le mois d’août : les articles journalistiques à tendance marronniers (trop d’informations va tuer nos entreprises, haltes aux mails, etc.), mais aussi des billets soulignant que la surcharge informationnelle était un mythe (et spécialement ceux d’Aref sur Demain la veille).

 

Voyons en quoi l’infobésité est bien présente, mais s’oriente plus vers une diététique informationnelle, que vers une question de volume.

 

 

Trop d’infos : la faute au web ?

 

Un des premiers aspects lorsque l’on parle actuellement d’infobésité est de souligner que (comme beaucoup de choses me direz-vous) c’est la faute du web (et des méchants zinternets). Bien que cette notion existe depuis pas mal de temps dans la littérature en management ou en psychologie (voir par exemple cet article de 1980), il semblerait que le développement du numérique accentue la focalisation sur ce phénomène.


Dans un billet, Aref souligne que la question du trop-plein d’infos est discutée depuis des siècles. Si la démonstration est intéressante et permet de remettre certaines idées en place, il parait tout de même nécessaire de souligner que le support du livre et différent de celui du numérique (jusque-là rien de bien original).


Et, surtout : chercher et consommer de l’information en bibliothèque ne peut être comparé aux mêmes actions sur le web :


==> Une bibliothèque est structurée, le web l’est moins


==> Dans une bibliothèque, généralement ce n’est pas le chemin d’accès au document qu’il faut mémoriser (contrairement au web), mais le nom de celui-ci ou de son auteur


==> Sur le web, la médiation est automatisée et algorithmique dans la majorité des cas… En bibliothèque, vous avez un bibliothécaire


==> Dans une bibliothèque, vous êtes face à des supports papiers (principalement, audio ou vidéo s’il s’agit d’une médiathèque)… Dans notre « univers numérique » vous devez pouvoir gérer des interfaces différentes : smartphones, logiciels, pages web (structurées différemment), télévision, etc.


==> A l’heure actuelle, de plus en plus vous êtes attiré par de nombreuses informations contre votre volonté. Par exemple, le développement des panneaux publicitaires vidéos questionnent déjà de nombreux cogniticiens : on ne peut pas y échapper, le mouvement attire fatalement l’œil…


Bref, si le volume de connaissances est toujours élevé, le numérique change sa mise à disposition. Et surtout les formes d’attention nécessaires pour y accéder. Et le fait que "tout le monde"  (ou presque) y a accès (contrairement à il y a quelques temps).


Chacun étant limité d’un point de vue cognitif (traitement de l’information), la question n’est donc pas dans le volume à traiter, mais dans la manière de le traiter et la rapidité avec laquelle le seuil de tolérance peut être atteint. Et le web, le numérique en général, y est pour quelque chose…

 

 

Prendre du poids, c’est faire du muscle… ou faire du gras

 

Si nous mettons de côté le fait (important) que nous ne sommes pas tous égaux au niveau de nos capacités cognitives, reste que dans tous les cas, nous sommes tous prédisposés à un jour ou l’autre avoir trop d’informations à traiter.


De mon point de vue, l’on peut faire une analogie (plus que triviale mais néanmoins assez démonstrative) entre le fait de consommer de l’information et celui de consommer la nourriture. C’est d’ailleurs ce qui rend le terme infobésité assez parlant donc intéressant à employer pour résumer simplement des phénomènes assez complexes.


==> Si vous ne mangez que des aliments avec trop de graisses saturées, alors vous allez prendre du poids = si vous ne lisez que des informations en provenances du blog de Morandini (exemple pris au hasard, ou presque), alors vous allez surement diminuer vos capacités à traiter par la suite de l’information complexe


==> Si vous ne faites pas un minimum d’efforts physiques, alors vous allez prendre du poids = si vous ne vous faites pas l’effort de « muscler » votre attention sur des informations nécessitant une forme de réflexion (comme associer ce que vous lisez à des connaissances déjà acquises), alors peu à peu vous risquez de vous sentir dépasser par un surplus d’informations (i.e en cas d’un sprint informationnel inopiné)


==> Si vous ne variez pas votre alimentation, même chose = ne lisez pas que les informations provenant des mêmes sources, avec le même traitement, le même niveau d’analyse, etc.


Bref, le sport c’est la santé, et sur un web de plus en plus soumis à une forme de déluge informationnel, varier les approches, les sources, etc., c’est préserver en quelques sortes sa santé cognitive (et ses capacités d’attention). En somme : ne pas rester passif et surveiller ce que l’on consomme est le meilleur moyen de ne pas se sentir alourdie par le volume d’infos à traiter.


 

Les infoGrasPhies sont-elles les Big Macs du web ?

 

Il y a 2 ans, je parlais sur ce blog du « web des corps gras », soulignant la manière dont l’information aujourd’hui était traitée de manière partielle, et surtout que sur le web ce qui marchait le mieux était les contenus synthétisés à l’extrême.


Aujourd’hui, j’ai l’impression que cela ne fait que s’accentuer… Et les infographies en sont un bon exemple :


==> Une infographie propose de résumer visuellement des faits (plus facile à ingurgiter)


==> Une infographie est attirante car bien présentée (comme un hamburger)


==> Une infographie cite peu ou pas ses sources (tout est dans l’infographie, pas besoin de pousser plus loin)


==> Une infographie se partage facilement, elle peut être consommé sur place ou à domicile


==> Les infographies suivent aujourd’hui une certaine norme de mise en page, peu importe le sujet on se repère facilement entre chacune d’entre elles (comme les hamburgers)

 

En résumé : l’infographie est comme un plat préparé, on ne garde que le gras de l’information (ce qui donne la sensation de se nourrir), et on rajoute des additifs visuels pour lui donner plus de goût. Encore plus attrayant qu’une liste en 10 points.


Mais voilà : les infographies marchent ! Et elles marchent même bien sur le web. Ce qui amène à se poser plusieurs questions : les internautes sont-ils feignants ? Les blogueurs sont-ils feignants ? Ou, ce qui me parait plus plausible, les infographies ne viennent-elles tout de même pas répondre à une certaine sensation d’avoir trop d’informations sur un sujet ?


Et, comme pour le McDo que tout le monde critique mais où beaucoup vont quand même manger quand ils n’ont pas le temps, les infographies ne sont-elles pas addictives ? Pas besoin de faire une démonstration très poussée : entre faire des recherches sur le sujet de l’e-réputation par exemple, et obtenir en quelques clics un résumé graphique des principales données sur le sujet, on peut faire vite le choix…


De même, cela se retrouve dans le phénomène des Big Datas et de la Dataviz : ce n’est pas parce que l’on peut traiter un grand volume de données et les rendre visualisables, que l’on fait cela forcément bien (voir mon argumentaire sur ce sujet).


Face à la tentation du vite lu, vite digéré, il est difficile parfois de ne pas craquer. Au risque de devenir « infobèse », pas parce que l’on a ingurgité trop d’informations, mais par ce que l’on a consommé de la « mauvaise » information (i.e qui n’est pas sourcée, qui prend certains biais pour arriver plus vite au résultat, etc.).


Cela ne veut pas dire qu’il ne faut pas parfois s’intéresser aux infographies ou autres listes en 15 points, mais plutôt qu’il faut développer une forme « d’infodiétique », une écologie cognitive que certains géants du web ont quant à eux bien intégré dans leurs fonctionnements.

 

 

Google, Facebook… les McDo du web ?

 

Certains chercheurs parlent « d’artefact cognitif » (voir notamment les travaux de Norman sur le sujet), défini comme : « Un outil artificiel conçu pour conserver, exposer et traiter l'information dans le but de satisfaire une fonction représentationnelle ».


Ce qui (pour schématiser) est le rôle d’un moteur comme Google : stocker les pages web, traiter l’information, et la représenter dans ses résultats pour la rendre accessible, et ainsi limiter de nombreux efforts cognitifs (imaginez comment rechercher de l’info sur le web sans moteurs : faisable mais au prix de nombreux efforts). En allant plus loin, pourrait-on aussi dire que Wikipedia est une forme d’artefact cognitif dédié à la connaissance encyclopédique (stockage, traitement et représentations de connaissances sur un sujet) ? Facebook, d’un point de vue des relations social, l’est à part entière selon moi…


Mais si ces artefacts sont utiles, ils jouent eux aussi de plus en plus sur une simplification de l’information, une mise en avant de ce qui parait le plus facile à consommer.  Si beaucoup de gens vont au McDo, c’est qu’in fine les hamburgers, ça marche plutôt bien. Google fonctionne ainsi sur une logique plutôt similaire : si tout le monde va lire telle info sur telle sujet (qui plus est si cette personne est maintenant dans vos « cercles » ou dans votre région par exemple), alors c’est que celle-ci doit être intéressante… Et donc mise  à disposition en premier !


Si la lutte contre l’infobésité passe par l’utilisation de ce type d’artefact donc (sur Facebook, vous ne pouvez suivre tous vos amis, sur Twitter les conversations sont masquées et les résultats de recherches liés à vos contacts, etc.) en termes de volume, elle passe aussi par des réflexions sur les notions d’autorité et de popularité inhérentes au classement des informations.


Est-ce que la manière dont telle plate-forme juge la qualité de l’information est bonne pour moi ? Dois-je forcément suivre les tendances pour bien me nourrir au niveau informationnel ? Mais, au final, qui y a-t-il dans nos assiettes numériques, quelle méthode de fabrication, quels ajouts de produits quelconques (algorithmiques) pour rendre cela plus attrayant ?


 

Des solutions ? Education à l’information et choix des filtres

 

Infobesite-2.jpgComme le souligne Aref et d’autres auteurs, la possible solution à cette prise de poids passe tout d’abord par une réelle éducation au média et à l’information. Piéger ses élèves sur Wikipédia, c’est impressionnant, mais leur apprendre à construire un article, à valider une source, à dialoguer avec les auteurs, c’est mieux. Comme pour la nourriture matérielle, la nourriture de l’esprit passe par des restrictions, des explications, des réflexes à apprendre et des risques à mesurer (là, vous me direz que ce n’est pas gagné pour la nourriture tout court…).


 

 

 

 

Cette problématique passe aussi par celle des filtres : qui amène l’information ? Comment traite-t-il cette information ? N’y a-t-il pas un risque de s’enfermer dans une bulle informationnelle ?


Quant aux volumes, si cela peut paraitre naturel à de nombreux professionnels de l’information d’utiliser des outils pour trier l’information, ce n’est malheureusement pas le cas pour tout le monde. Combien d’entreprises (toutes ?) mettent leurs collaborateurs devant un moteur de recherche en leur disant « ça c’est votre accès à Internet », et sans les former ?... Comme si cela était naturel (et je ne parle pas des boites mails qui suivent le même principe : avant de parler de supprimer les mails, ne serait-il pas intéressant d’expliquer comment faire une règle de gestion ?)…

 

Pour les entreprises qui communiquent sur le web, ces constats sont à intégrer aussi : de quelle manière le public que je cible consomme l’information ? Quelle qualité sur quels sujets ? Quel traitement par les filtres ? Y a-t-il trop ou pas assez d’informations sur le sujet ? A quel volume mes publics sont-ils exposés ? Un ensemble d’observations à faire pour ne pas tomber dans le biais des infographies partout,  des vidéos pour chaque stratégie… Et surtout pour ne pas étouffer ses publics ou en ignorer d’autres.

 

 

Au final…

 

Si à la base j’ai souvent rigolé de cette expression « infobésité », il me semble après réflexion qu’elle est parlante pour expliquer certains phénomènes. Ce qu’elle englobe est cependant trop large, et la problématique de la surcharge ne doit pas s’expliquer seulement par le volume d’informations, mais bien par la manière de le traiter. Et encore, je n’ai pas parlé ici de la question du rythme…


De plus, la surcharge est parfois plus une sensation qu’un fait rationnel. C’est d’ailleurs là-dessus que jouent de nombreux éditeurs de contenus voire de logiciels : offrir des solutions qui rassurent, plus qu’elles ne règlent le fond du problème.


Si le web n’est pas forcément un facteur essentiel de cette sensation, la qualité des informations qui circulent et leur mode de traitement nécessitent tout de même de s’interroger sur l’impact à long terme que cela pourrait avoir.

 

Enfin, j'espère que ce billet assez long ne causera pas trop d'indigestions...

 

Et vous, comment abordez-vous la notion d’infobésité ? Que recouvre-t-elle ? Et, surtout, vous semble-t-elle utile ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
3 juillet 2012 2 03 /07 /juillet /2012 13:35

EvaluationAgence.jpgOu, une agence web doit-elle évaluer ses propres actions ? Petit billet pour ce mois de juillet, mais avec une question devenue essentielle : doit-on (en tant que client) laisser à un même prestataire le soin d’effectuer des actions d’e-réputation, puis de les évaluer par la suite ? Voyons d’abord le cas de Pierre (client) et Max (consultant), avant de nous questionner un peu plus sur les risques inhérents à ce type de pratiques… très (trop ?) rependues.

 

 

 

 

 

L’histoire de Pierre et Max

 

Pierre souhaite, pour son entreprise de vente (en ligne en partie) de produits de beauté, définir d’une part l’état des opinions concernant son entreprise et ses produits sur le web. Et d’autre part gérer certains échanges parfois agressifs sur des forums de consommateurs quant à la qualité de ses produits ou encore aux aléas inhérents à la vente à distance. Bref, il veut un bilan de sa réputation en ligne ainsi que des propositions d’actions de CRM voire de « buzz » (comme on dit). Après avoir identifié des prestataires, il s’adresse à Max, gérant et consultant de l’agence RepA S.A.


Max propose alors à Pierre le packaging habituel : audit d’e-réputation, proposition d’une stratégie, mise en place d’une stratégie et enfin bilan mensuel des actions. Pierre se dit « tant mieux, si tout est compris cela me reviendra moins cher »…


Suite à l’audit Pierre et Max déterminent ensemble les objectifs des actions. Max, ancien directeur marketing d’une fabrique de saucissons devenu spécialiste du web après avoir tenu un blog durant 1 an sur le sujet (son gage de crédibilité), sait bien que les chiffres rassurent le client (et en plus « ils sont objectifs »). Il propose alors à Pierre de développer la présence de son entreprise, et lui fournit des indicateurs adéquats de réussite : 3000 followers sur le compte Twitter en un mois, une vidéo virale avec 50000 vues minimum, 5000 fans sur la page Facebook, etc. C’est bien connu : le volume dénote la qualité…


Seulement, Max s’aperçoit vite que l’entreprise de Pierre, qui produit des cosmétiques à base de graisse de loutre de Papouasie, n’est pas dans un marché très porteur. Ou, tout du moins, si l’on parle de ses produits, ce n’est pas pour autant que l’on souhaite en devenir « fan », ou s’abonner à un compte Twitter pour connaitre les dernières actualités de la vente en ligne de cosmétiques pro-loutres. Max décide alors, pour tenir ses objectifs (qui ont justifié les quatre zéros du chèque), de passer par une agence (Bon après) spécialisée dans l’achat et la vente de fans/followers…


Seulement, au bout d’un mois, un méchant blogueur (type papy cyroul) identifie certains de ces bots, et produit un article sur le sujet. Rien de bien méchant dans l’absolu : Max se justifie sur le blog, et supprime de suite les faux comptes abonnés (qui, heureusement pour lui, n’étaient pas si nombreux que ça). Mais… Le fait d’utiliser de la graisse de loutre dans les cosmétiques de Pierre a toujours indigné de nombreux défenseurs de la cause animale. Défenseurs qui, pour le coup, ne se privent pas de cette occasion pour relancer le débat et attaquer clairement la marque de Pierre.

Malgré son expertise sur le sujet (de 67 selon Klout) Max et ses community managers n’arrivent pas à réellement endiguer cette crise : la plupart de leurs actions de référencement, de réponses dans les forums, sont presque réduites à néant. Un presque retour à la case départ…


Vient ensuite l’heure du bilan devant Pierre (qui rappelons-le ne connait pas grand-chose au web, sinon il internaliserait surement). Max se retrouve face à un choix difficile :


a) Evaluer ses propres actions comme peu efficaces (malgré de réels efforts), et souligner que les objectifs ne sont pas atteints ?


b) Tourner les chiffres dans un sens plus favorable, les mettre en contexte pour appuyer son argumentation quant à la réussite de son projet (et potentiellement re-signer pour la suite)?


Dure décision non ?...

 

 

S’auto-évaluer pousse-t-il au crime ?

 

Cette petite illustration, fantasque mais pas tant que ça, pose déjà une première question : peut-on faire confiance à un prestataire qui ne vend que du chiffre ? Le fait de fixer des objectifs est une nécessité, mais pour autant, doit-on rester dans les bons vieux modèles publicitaires d’antan où l’audience et le chiffre sont les seuls indicateurs d’une stratégie réussie ?

 

Car les pratiques (questionnées et questionnables) d’achat de bots en tout genre semblent souvent là pour pallier à un manque de pratiques de communication sur le web. Et, surtout, pour faire plier la réalité des résultats aux attentes générées par un discours commercial bien rodé et souvent vide de sens. Dans le cas présenté ci-dessus une des erreurs soulignée est qu’il aurait été surement plus habile de passer par un autre prestataire pour le « bilan d’e-réputation » : celui-ci aurait pu recommander des objectifs (même en partie chiffrés) plus atteignables en fonction du contexte, des communautés, etc.


La question du prestataire unique se retrouve donc  dès le début. Max peut proposer des actions en fonction de ce qu’il observe, mais il peut aussi contextualiser ses observations afin de proposer des actions qui vont dans le sens de ce qui lui parait le mieux à faire… en termes de bénéfices ou de moyens à disposition.

 

 

Evaluer ses propres actions : une perte de sens ?

 

Bien entendu, certain(e)s jureront la main sur le cœur que « non, nous restons honnêtes dans nos reporting, quitte à se tirer à moitié une balle dans le genou ». Et je les crois !


Mais, si l’on peut parler d’honnêteté, il parait très difficile dans ce cas de toucher du doigt la notion d’objectivité. Car en évaluant ses propres actions, l’on va surtout se focaliser sur les résultats de « ce que l’on a voulu faire » et non pas de « ce qui aurait dû être fait » ou « de ce que l’on observe au final ». Et c’est humain : même avec un fort potentiel d’autocritique, la réalité que l’on observe ne peut se défaire de nombreuses références à son propre vécu. Et l’on crée alors des justifications : par rapport au temps passé, aux moyens à disposition, à ses expériences passées sur des sujets similaires, à sa connaissance du sujet ou du terrain…


Sans parler donc de motivations purement financières qui amèneraient à trafiquer telle ou telle observation, le contexte d’observation n’est plus celui du « web dans l’absolu » (si cela est possible) ou de l’entreprise cliente (voire des internautes), mais bien celui du prestataire qui évalue ses propres actions.

 

 

De l’intérêt de multiplier les points de vue

 

Face à ces rapides constats, il semble donc nécessaire de multiplier les points de vue. Qui plus est lorsque l’on observe voire influe sur des mouvements d’opinions. Si, et c’est souvent le cas, les compétences ne se trouvent pas en interne, s’appuyer sur un autre prestataire (spécialisé dans le conseil ou la veille) pour établir ses objectifs puis faire un bilan des actions menées (par l’entreprise ou d’autres) permet :


==> De donner du sens aux actions effectuées : par rapport au premier bilan établie, aux objectifs de l’entreprise et au contexte globale d’observation


==> De ne pas tenter son prestataire opérationnel : chiffres mirobolants, techniques éthiquement discutables, etc.


==> D’avoir un avis différent sur des stratégies dont on ne maitrise pas les résultantes (malgré les bonnes recettes) car s’appliquant à un environnement mouvant et plein de surprises : le web.

 

Vient alors la question du prix : un prestataire coûte cher, alors deux (ne parlons même pas d’un recrutement en interne)… Certes, mais si en tant qu’entreprise vous souhaitez un développement à plus long terme sur le web dit social, il devient nécessaire d’investir de façon cohérente dans l’atteinte de ces objectifs : en choisissant quelqu’un pour vous accompagner sur le long terme (réflexion et observation). Et en vous appuyant sur des compétences spécifiques et opérationnelles pour des besoins précis. Car l’idée d’accompagnement est que, à un moment ou à un autre, l’on puisse avancer tout seul…

 

 

Au final…

 

Il s’agit donc ici plus d’un constat visant à ouvrir au débat  qu’une prise de position définitive. Pour ma part, je pense qu’il s’agit aussi d’un paradoxe dans le discours des entreprises : le web est très important, c’est un facteur de compétitivité, on ne peut plus l’ignorer, etc. Mais par contre, on ne va pas non plus investir des milles et cents dessus (ben oui : le web c’est pas cher ?!).


Le recrutement en interne mérite d’être pensé par les entreprises (meilleure solution de mon point de vue, afin de croiser les regards avec des prestations extérieures). La question de la performance aussi : peut-on, sur un web où l’humain reste pour l’instant assez prépondérant, chercher l’efficience à tout prix dans la relation humaine ?


Bref, au-delà de la question de la confiance, alterner les regards sur les actions de son entreprise offre surtout la possibilité de multiplier les perceptions et développe une forme d’esprit critique nécessaire à l’entreprise.

 

Et vous, comment abordez-vous cette problématique ? Pensez-vous que délimiter le rôle d’un prestataire est nécessaire ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article
2 mai 2012 3 02 /05 /mai /2012 14:27

Outils-veille.jpg« Cet outil va répondre à vos problématiques d’e-réputation » apparait comme une approche étonnante de la veille : faire reposer le succès de sa stratégie d’information sur une technologie revient à définir sa performance en fonction de celle de son outil. Si les outils de veille sont nécessaires et pour certains très utiles, il semble intéressant d’en tracer aussi les limites. Et de questionner les possibles impacts à long termes d’approches parfois trop techniciennes.

 

Comme souvent sur le web, dès qu’une nouvelle technologie fait son apparition elle est généralement présentée comme une avancée certaine, comme la solution à des problèmes essentiels, qui souvent d’ailleurs ne se posaient même pas.


Les outils de veille ne dérogent pas à cette approche. Qui plus est lorsqu’ils sont associés à la thématique de l’e-réputation. A chaque nouvel outil son tour de magie, à chaque problème une réponse technologique.


Loin de moi l’idée de dire que tous les outils (ou un en particulier) ne sont pas performants ou inutiles. Mais seulement que, au-delà du discours des éditeurs ou agences vendant ces dits outils, il parait nécessaire de souligner certaines limites. Qui paraitront peut-être évidentes, mais si c’est le cas, alors il parait bizarre de ne pas le lire plus souvent (d’où mon étonnement donc, de voir ou entendre encore de tels discours).


 

L’outil de veille permet d’identifier des signaux faibles


Ou pas…


Le concept de signal faible, ou signe d’alerte précoce (selon Lesca), ou « surprise stratégique » (selon Ansoff, qui a développé ce concept) repose non-pas seulement sur la capacité à capter des signaux informationnels, mais bien à décider que ces signaux représentent un intérêt stratégique.


Le signal faible est donc une affaire de contexte et surtout d’interprétation : d’un individu à l’autre, d’une situation à l’autre, d’une problématique stratégique à une autre, chacun portera son attention différemment sur une information.


Si les outils de veille permettent de collecter de l’information, de la classer en fonction de sa fréquence d’apparition ou de sa rareté (par exemple) ce n’est pas pour autant qu’ils font « émerger des signaux faibles » (et encore moins qu’ils les qualifient)!


A la limite, définir des critères automatisables de ce que l’on suppose être un signal faible (information relayée par telle source, à tel niveau, etc.) peut permettre de s’appuyer sur un outil pour les détecter. Mais encore une fois, il s’agit bien d’une « surprise » dont l’anticipation est une construction (car si le signal est identifié, il ne devient plus « faible » aux yeux de l’entreprise).


 

L’outil de veille analyse l’information


Ou pas…


De mon point de vue (mais ça se discute) analyser des données (ce que fait l’outil) ne revient pas à la même chose qu’analyser l’information. La veille doit appuyer la prise de décision. L’outil lui, ne fait qu’appliquer encore une fois des critères, en fonction généralement d’un algorithme dont on ne connait rien ou très peu.


Fournir une analyse ne revient pas à produire des graphiques et des chiffres, à fournir une mise forme de données, mais à prendre en compte les attentes des commanditaires pour formuler une synthèse, une mise en avant, de ce qui pourrait répondre à leurs interrogations.


Si l’analyse sémantique ou les technologies dites d’intelligence artificielle s’affinent de jour en jour, si l’analyse qu’elles fournissent paraissent pertinentes avec un grand jeu de données (et encore), elles ne remplaceront jamais l’humain et sa capacité à mettre en relation des informations de prime abord incohérentes pour en retirer de la valeur.


 

L’outil de veille identifie les leaders d’opinion ou les influenceurs


Ou pas…


Il serait long ici de revenir sur le concept (contesté et contestable) de leader d’opinion, ou encore d’influenceur. Cependant, et n’en déplaise aux utilisateurs de Klout par exemple, ce type d’outils ne mesure que certains aspects, aspects ne répondant pas forcément aux attentes de l’entreprise.


S’il est intéressant de savoir qu’un tel à une capacité moyenne de diffusion de X pour Y (500 retweets pour 1000 followers par exemple), cela ne permet pas pour autant de l’identifier comme leader pour Votre problématique.

Et cela supposerait aussi que l’outil en question agrège l’ensemble des profils/sources potentiellement intéressants, et qu’il se repose sur des critères d’analyse les plus souples possibles (qui s’adaptent en fonction des situations, des informations, etc.).


Encore une fois, tout dépend de ce que l’on compte faire de ce « leader » (comment l’intégrer à telle action, pour faire quoi, atteindre quels objectifs stratégiques, quel public, etc.), plus que des chiffres qui lui sont attachés (dans l’absolu, il faut un juste équilibre des deux). Ce qu’un outil peut difficilement appréhender…


 

L’outil de veille comprend ce qu’a voulu exprimer un internaute


Ou pas…


La fameuse analyse des sentiments, graal absolu des éditeurs en e-réputation, dont on parle beaucoup mais pour laquelle on voit peu de résultats (automatisés j’entends) probants…

Je n’y reviendrais pas plus en détail ici, et vous invite à lire : E-réputation : pourquoi l'analyse des sentiments ne sert à rien ?

 


L’outil de veille me permet de connaitre tout ce qui se dit


Ou pas…


Le mythe de l’exhaustivité à la vie longue, qui plus est pour des outils se basant de plus en plus sur des panels de sources et non sur un crawling systématique.


Croire que l’outil va vous permettre d’être tenu au courant de l’ensemble des informations circulant sur un sujet (qui plus est en temps réel) peut vite devenir une faute stratégique : on prend une décision sans prendre en compte que certaines choses nous échappent.


Si, bien entendu, l’on pense que ce qui nous échappe est un signal faible et que l’outil les détectent, alors tout va bien . Si, au-delà, l’on prend conscience de ce « manque » inhérent, alors il parait encore une fois intéressant de mettre l’outil de côté et de s’interroger sur ce la manière de gérer cette potentielle absence d’informations ou de données.

 

Ces remarques ne sont ici aussi, bien entendu, pas exhaustives, et les commentaires vous sont ouverts pour en ajouter (ou les contester/discuter).

 

 

Pour en finir avec une veille purement technicienne ?

 

 

J’aimerai conclure ce billet par quelques réflexions plus larges sur la confiance qui est parfois donnée trop grandement aux outils.


La veille devient un métier qui se développe de plus en plus, et dont de nombreux acteurs de l’entreprise ont besoin (community manager, RH, etc.). Parallèlement, ou paradoxalement, la veille est l’une des activités que l’on sabre en premier dans les entreprises ayant des difficultés économiques.


Il me semble, mais ce n’est bien entendu pas la seule cause, que cette focalisation sur l’outil (présenté parfois comme magique donc) en est l’une des causes. Cela pour plusieurs raisons.

La première, est que les veilleurs eux-mêmes valorisent parfois leur travail par l’acquisition d’un outil (souvent coûteux) justifiant ainsi en partie l’intérêt de leur mission. Dans une économie encore beaucoup basée sur le modèle industriel (et une certaine culture de l’ingénieur, donc de l’outil), bien travailler c’est avoir de bons outils. Oubliant ainsi que l’objet technique a peu d’intérêt sans méthodologies pour l’utiliser. Et quand l’investissement dans l’outil devient aussi coûteux (voire parfois même plus) que l’investissement dans l’humain qui va l’utiliser, le rapport de force s’inverse, au risque que le veilleur ne soit là que pour valoriser l’outil (le faire marcher en somme) et non l’inverse.


La deuxième raison, de mon point de vue, est que le prisme de l’outil réduit fortement le champ d’action du veilleur ou du spécialiste de l’information en général. Ses compétences deviennent purement techniques aux yeux de certains, les cantonnant à un rôle d’exécutant, là où la gestion de l’information suppose une vision plus large et managérial. Ce qui explique peut-être en partie, certaines offres d’emplois précisant « formé à l’utilisation de tel outil » ou « devra utiliser l’outil maison » et les faibles rémunérations qui les accompagnent : définir son métier de veilleur par le prisme de l’outil amène le risque de ne devenir plus qu’un « presse bouton » là où il semble nécessaire de définir soi-même les boutons, et l’impact que l’appui sur ceux-ci aura.

Et, surtout, d’être en quelque sorte interchangeable…

 

 

Enfin, et comme le montre le dernier billet de Frédéric, la veille et l’intelligence économique en générale ne sont pour l’instant pas à la fête au niveau de l’emploi. Et pourtant, chaque année, de nombreux étudiants sont formés à ces métiers. Ne se reposer que sur une vision technique de la veille ne permet alors pas de se différencier, de démontrer ses compétences au-delà de l’outil que l’on utilise.

 

Sortir de l’approche technicienne signifie donc pour moi ne plus définir son métier ou ses compétences en fonction des outils que l’on utilise, ne plus proposer systématiquement une solution logicielle à une problématique informationnelle, mais valoriser au contraire la capacité du veilleur à « prendre soin » des sources qu’il surveille, à développer ses propres réseaux (numériques ou non), ou encore à développer des méthodologies (voire des outils d’ailleurs) répondant à une demande précise. Bref, faire du sur mesure plutôt quedu prêt à porter, mettre de côté la technique pour valoriser le rôle de l’humain.


 

Et vous, comment abordez-vous cette présentation des outils de veille comme magiques ? Pensez-vous que la veille ne se valorise que par les outils sur lesquelles elle s’appuie ?!

Published by Camille A - dans Rayon Etonnement
commenter cet article

Le nouveau blog!

Le nouveau blog : cadderep.hypotheses.org

 

Rechercher

Gazouillis