Les conférences et ateliers
Voici maintenant un compte-rendu des ateliers et conférences auxquels nous avons eu l’occasion d’assister.
La conférence inaugurale d’I-Expo intitulée « Quels métiers, quelles formations pour quelles entreprises dans la transformation numérique ? »
avait comme il est d’usage l’ambition de poser des questions de fond pour les professionnels de l’information. Animée par Denis DESCHAMPS, Responsable du pôle Innovation et Intelligence Economique, CCI PARIS Ile-de-France, et Anne-Marie LIBMANN, Directrice opérationnelle de FLA CONSULTANTS, elle réunissait d’autres experts tels que Benoit MAILLE, Chef de projet intelligence économique, CCI Paris Ile-de-France, Nathalie BERRIAU, Présidente de l’ADBS, Monika SIEJKA, Consultante spécialisée dans le domaine du développement du numérique dans l’enseignement supérieur, ainsi qu’un représentant de KNOWLEDGE PLAZA.
Ils ont pu illustrer comment, dans un contexte d’entreprise où chacun a désormais facilement accès à l’information, le professionnel peut mettre en valeur ses compétences, et ce en particulier dans la structuration et le traitement de masses considérables de données. Certes les conditions de travail sont de moins en moins stables, dans un univers où les modes de collaboration évoluent vers une forte mobilité, et des formats juridiques contractuels précaires ou indépendants.
Détecter des signaux faibles dans un environnement fluctuant
Organisée par l’ADBS, cette conférence réunissait Guillaume SYLVESTRE, competitive Intelligence Analyst à l’ADIT et Kim BOYTARD, Associate in Risk Management chez ENGIE (anciennement GDF).
Cette dernière apportait son témoignage après des dizaines d’années d’expérience en matière de veille et détection des risques au sein de GDF et ses enseignements étaient on ne peut plus intéressants. Après avoir défini ce qu’était un signal faible, en l’occurrence « un fait à propos duquel seules des informations partielles sont disponibles alors qu’une réaction doit être entamée », elle a insisté sur la nécessité de bien définir son environnement en amont pour réaliser une veille pertinente et sur l’absolue nécessité d’avoir les soutiens des dirigeants ou d’être rattaché à des gens hauts placés dans la hiérarchie pour avoir le plus de chance d’être écouté. « On ne peut avoir raison seul » a-t-elle insisté, d’où la nécessité d’être écouté en haut lieu.
Selon elle, dans un environnement calme, on a tendance à faire plus de veille alors que dans un environnement plus vulnérable (une entreprise faisant face à une grande concurrence ou menacée par des scandales sociaux, sanitaires, politiques, etc.), on ouvre alors tous ses sens pour capter des signaux faibles. La détection de signaux faibles irait donc au-delà des pratiques de veille et ces signaux ne seraient repérables que dans un contexte où on les cherche.
Pour elle, le succès dans la détection de signaux s’explique par deux facteurs : de l’intuition et surtout beaucoup de travail ! Elle indiquait avoir réalisé des centaines de fiches de risques pour ses supérieurs et que ses « prédictions » ne s’étaient réalisées que dans quelques cas (en l’occurrence sur les risques liés à la légionellose et les risques psychosociaux dans les entreprises). Le plus important n’étant pas d’avoir raison à tous les coups mais de réussir à détecter les signaux faibles avant qu’il ne soit trop tard.
L’intervention de Guillaume Sylvestre s’intéressait plutôt à l’aspect outil et notamment l’apport des outils cartographiques pour détecter des signaux faibles. Ces outils permettent en effet de faire ressortir des éléments et des liens entre les éléments qui ne sont pas visibles avec une présentation traditionnelle de l’information (identifier des leaders d’opinions, comprendre les liens faibles, comprendre la formation d’une opinion sur un sujet donné). Il citait notamment deux outils : Gephi et Visibrain (voir Netsources n°118 et n°121).
Il a notamment pris un exemple concret en analysant toutes les news publiées sur Twitter à propos de l’alliance entre General Electric et Alstom, ce qui représentait un volume considérable. L’analyse de tous ces tweets avec l’outil Gephi a permis de faire émerger quelques tweets à propos d’un possible scandale de corruption au Brésil pour Alstom. Noyé au milieu des autres informations, ces quelques tweets n’étaient pas visibles à l’œil nu et l’entreprise avait peu de chance de surveiller précisément la source à l’origine de l’information (un petit blog d’information locale au Brésil).
Plateformes de veille collaborative et informative, espaces communautaires, RSE, KM 2.0… : stratégies et outils pour gérer l’information et les connaissances à l’heure du digital
Cette conférence rassemblait trois éditeurs d’outils, Christopher PAROLA, fondateur d’ELCURATOR, Alain GARNIER, CEO et fondateur de JAMESPOT et Fabienne VANDEKERKOVE, Directrice projets chez KNOWLEDGE PLAZA et un utilisateur de ces plateformes (en l’occurrence Jamespot) Maud ANNIC, Responsable Mission Veille et Management de l’Information à l’ANACT (Agence Nationale pour l’Amélioration des Conditions de Travail).
La première partie était consacrée à un retour d’expérience de l’ANACT. Il y maintenant quelques années, l’ANACT a souhaité acquérir un nouvel outil pouvant répondre à trois besoins essentiels :
- professionnaliser leur veille,
- arrêter la diffusion traditionnelle de la veille,
- stocker la veille.
Aidé par un cabinet de consulting, ils ont finalement choisi une RSE et plus spécifiquement Jamespot. Ils ont ainsi décidé de revoir complètement leurs pratiques en arrêtant la diffusion d’une newsletter mail qui était envoyée à l’identique à un grand nombre de personnes et en décidant qu’il fallait personnaliser au maximum les informations envoyées aux utilisateurs et laisser la possibilité à cet utilisateur de devenir lui-même producteur et de choisir les thématiques auxquelles il souhaitait s’abonner. De fait, le rôle du veilleur a changé et évolué vers un rôle de gouvernance et d’animation. Le principal frein à la mise en place de ce nouveau système (et dans la majorité des projets en général quels que soient l’entreprise ou le secteur d’activité) était la culture de l’entreprise et la résistance au changement de nombreux employés de l’ANACT. Il a ainsi fallu convaincre les gens que la veille n’était pas exclusivement réservée aux veilleurs et qu’il s’agissait d’une compétence à acquérir dans la plupart des métiers, que l’information n’était pas chasse gardée et qu’il fallait la partager et enfin, que se rendre sur le RSE et y consulter des informations ou enrichir les informations présentes n’était pas une tâche récréative pouvant être apparentée à une pause café ou la connexion à son compte personnel Facebook.
D’autre part, ce nouveau système a fait évoluer la diffusion de l’information vers plus d’analyse et de personnalisation avec notamment une transformation de l’information pour répondre aux besoins réels du destinataire (graphiques, analyse poussée, synthèse, etc.) et la création de valeur ajoutée autour de l’information (contextualisation, commentaires, liens entre les informations, etc.).
Cette expérience a aussi mis en évidence qu’il était illusoire de chercher un outil ou une plateforme capable de gérer tous les aspects de la veille et de la collaboration. Chaque outil dispose de sa propre spécificité et de ses points forts et il faut plutôt essayer de connecter ses différents outils entre eux plutôt que de rechercher un outil global comme par exemple SAP.
Les différents éditeurs de RSE présents sont allés dans le même sens en constatant eux aussi que le temps de la recherche d’un outil global était maintenant révolu et que les clients étaient de plus en plus à la recherche d’outils interopérables. C’est notamment à cela que travaillent Jalios, Knowledge Plaza et Jamespot en essayant de rendre leurs plateformes interopérables.
Un RSE peut servir à de multiples usages : livrable de veille, groupes projets, groupes fonctionnels, outil de questions/réponses, outil de communication, outil d’Open Innovation, KM, etc. Le plus important, c’est que les utilisateurs sachent exactement quels en sont les usages au sein de leur entreprise. C’est un facteur-clé pour que les utilisateurs adhèrent au projet et participent activement. Comme lors du témoignage de l’ANACT, les différents éditeurs ont noté une véritable évolution du métier de professionnel de l’information avec un rôle d’interface entre le DSI et les utilisateurs et un rôle d’animation avec des utilisateurs de plus en plus autonomes dans leurs recherches d’information.
Tous sont tombés d’accord sur les clés du succès dans la mise en place d’un RSE : le soutien du Top-Management et une mise en place progressive en partant d’un exemple concret.
Outils gratuits versus outils payants : quelle vérité pour une recherche et veille d’information stratégique performante ? Comment arbitrer dans la jungle des outils et des offres ?
Cette conférence rassemblait Anne-Marie LIBMANN, Directrice opérationnelle de FLA Consultants, Christian LANGEVIN, Directeur Général de QWAM CONTENT INTELLIGENCE, Laetitia NOURISSAT GOURD, fondateur de DECIDENTO, Grégoire HENROTTE, Directeur en charge des prestations de Veilles chez SVPet Olivier GUERIN, Senior Solution Expert chez IHS.
La conférence s’est ouverte sur une citation (en réalité un slogan d’une publicité de Factiva d’il y a quelques années) appliquée aux informations du Web qui pourrait aussi bien s’appliquer à la distinction entre les outils gratuits et payants et qui résume assez bien les thèmes abordés lors de cette conférence : « l’information sur le Web, c’est gratuit mais vous en avez pour votre argent ».
Les différents intervenants ont tout d’abord voulu montrer que l’information gratuite n’est pas toujours accessible sur Google comme on voudrait bien le croire. Selon Christian Langevin, Google indexait 8 ou 9% du Web en 2007 et ce chiffre serait tombé à 0.002% en 2013. D’autre part, les internautes se limitent généralement à consulter la première ou les premières pages d’un moteur or les pages de résultats de différents moteurs (Google, Bing, DuckDuckGo, etc.) sur une même requête varient beaucoup. Un test récent sur Google, Qwant et DuckDuck-Go a permis de mettre en évidence que sur les 50 premiers résultats, il y avait seulement 25% de résultats communs entre ces trois moteurs alors que ce chiffre était de 60/70% il y a quelques années. Les différents intervenants ont ainsi voulu montrer que se limiter à Google pour la veille et la recherche était très restrictif et parfois même dangereux.
Venons-en maintenant à la question des outils. L’un des principaux problèmes avec les outils gratuits, c’est qu’ils ont tendance à disparaître plus ou moins rapidement et qu’il faut alors trouver un plan B dans l’urgence. On commence à voir une prise de conscience chez les professionnels que les outils gratuits ne sont pas aussi « bon marché » qu’ils le paraissent car ils sont parfois complexes à prendre en main (il faut parfois plus de compétences pour utiliser un outil gratuit qu’un outil payant), il faut souvent combiner plusieurs outils pour parvenir aux résultats souhaités ce qui génère une sorte d’ « usine à gaz » et qu’ils ne donnent accès qu’à de l’information gratuitement accessible sur le Web ce qui est un peu limité.
Les intervenants ont établi une typologie de 3 types de sources d’informations pour la recherche et la veille
- Le Web profond et payant qui est constitué des serveurs, bases de données ou sites de presse, etc.
- Le Web visible (accessible via Google et autres moteurs)
- Les réseaux sociaux
Il n’est plus tellement possible de se passer de l’un ou l’autre de ces types de sources dans le cadre d’une veille ou d’une recherche au risque de manquer des informations stratégiques.
Le monde de l’information « payante » existe et il n’est pas très judicieux de s’en priver car il apporte souvent des informations complémentaires, plus détaillées, plus d’analyse mais également des informations que l’on ne peut trouver ailleurs. C’est le cas des serveurs, des bases de données économiques, financières, scientifiques et techniques, les sites de presse, etc.
Pour le Web visible, il existe des outils gratuits permettant de le surveiller mais il faut néanmoins être prudent car ces outils ne sont pas toujours exhaustifs. C’est notamment le cas de Google Alertes qui a récemment diminué le volume d’informations qu’il transmet à ses utilisateurs.
Pour les réseaux sociaux, il y a tellement d’information et de bruit qu’il faut nécessairement utiliser des outils de recherche et de veille avec suffisamment de fonctionnalités pour réussir à s’y retrouver.
D’autre part, il faut être conscient que si l’on passe tout son temps à la collecte, il ne reste plus de temps pour l’analyse qui est pourtant une étape cruciale. Cela conduit parfois à une remise en cause des services de veille et de documentation qui n’ont plus de temps pour l’analyse, ce qui fournirait pourtant une valeur ajoutée à leurs prestations.
L’autre question posée concernait la fiabilité des données trouvées sur le Web ouvert et gratuit. On trouve toutes sortes de choses sur le Web et il est parfois difficile de distinguer le vrai du faux. Les sources payantes, quant à elles, permettent généralement d’avoir un premier niveau de validation.
En conclusion, les différents intervenants ont voulu montrer que les outils gratuits et payants pouvaient répondre à des besoins en informations différents : pour un simple besoin informationnel, les outils gratuits peuvent suffire alors que pour un besoin stratégique, il faut regarder du côté du payant. D’ailleurs, lorsqu’on souhaite avoir un coup d’avance et accéder à l’information avant les autres, c’est souvent vers les sources d’information payantes qu’il va falloir se tourner.
Innovations et créativité dans les pratiques de veille et de recherche d’informations
Lors du salon, notre équipe a organisé un atelier qui était composé de trois interventions.
Les supports de ces interventions sont disponibles sur le site de FLA Consultants à l’adresse : http://bit.ly/23k8QbC
Evolution du système des bases de données professionnelles depuis 30 ans
Cette première intervention animée par François LIBMANN, directeur de FLA Consultants et directeur de nos publications, revenait sur les origines des grands serveurs et banques de données comme Dialog ou LexisNexis. Il a notamment mis en évidence les évolutions des interfaces, les évolutions en termes de facturation, d’accès aux documents primaires, à la presse, aux brevets ou encore à l’information scientifique et technique.
Tendances et innovations en matière de veille et de recherche d’information
Cette deuxième intervention menée par Anne-Marie LIBMANN, directrice des opérations chez FLA Consultants, tenait à montrer la place et le rôle du professionnel de l’information dans le monde d’aujourd’hui et celui de demain. Pour pouvoir garder sa valeur ajoutée, il lui faut faire preuve de créativité dans ses méthodes de recherche, démontrer une grande expertise de son sujet et tirer parti des innovations récentes des outils de veille et de recherche. Cette intervention était illustrée de nombreuses méthodologies et exemples innovants et originaux ainsi que des dernières innovations des moteurs de recherche, des bases de données et des outils de veille.
L’avenir de Bases et Netsources : en adéquation avec les modes de recherche de demain
Enfin, Carole TISSERAND-BARTHOLE, rédactrice en chef de Baseset Netsources, est revenue sur les origines de ces publications et leur évolution au cours des 20/30 dernières années. Elle a ensuite analysé les principaux modes de recherche et de travail actuels chez les professionnels de l’information, les tendances pour les années à venir pour enfin présenter les futures évolutions dans la stratégie éditoriale mais également les évolutions au niveau de la forme pour les deux publications afin de répondre au mieux aux problématiques auxquelles sont confrontées ces professionnels.
L’actualité des exposants
Coexel, l’éditeur de la solution de veille MyTwip présentait son module de surveillance des médias sociaux avec notamment des briques d’analyse pour Twitter (termes populaires, termes émergents, utilisateurs les plus actifs, etc.). Rappelons qu’il s’agit d’un moteur de veille spécialisé dans la recherche d’informations sectorielles et thématiques qui applique notamment du traitement sémantique aux informations issues du Web. D’autre part, l’éditeur a présenté lors d’un atelier sa brique d’analyse cartographique qui s’appuie sur l’extraction d’entités nommées de type lieux, géocodage de ces lieux et la restitution du fonds documentaire sur une interface cartographique.
ElCurator, petit nouveau sur le salon présentait son outil de curation professionnel dont nous aurons l’occasion de reparler dans un prochain numéro de Bases. L’outil a vocation à être utilisé en interne au sein des entreprises (par opposition à des outils comme Scoop-it) et propose pour le moment des tarifs défiant toute concurrence (l’abonnement le plus cher étant à 3 euros par mois). Parmi ses dernières nouveautés, l’outil a ajouté un module d’analyse des tendances ainsi que la possibilité d’ajouter et de partager ses propres fichiers (et non plus uniquement des contenus Web).
BrandWatch, autre découverte du salon, est une plateforme britannique de veille des médias sociaux, qui existe depuis plusieurs années mais n’avait pas encore fait beaucoup parler d’elle en France. Nous aurons l’occasion de proposer un article de fond sur cet outil qui semble très prometteur notamment en termes de fonctionnalités de recherche (23 opérateurs de recherche tout de même !) dans un prochain numéro de Netsources.
FLA Consultants, cabinet de veille sur le marché depuis plus de 40 ans présentait ses différents services allant de la recherche d’information à la demande, des prestations de veille clés en main, du conseil et accompagnement en matière de veille et développement à l’international. A noter que depuis maintenant quelques années, FLA Consultants a développé des services de due diligence, d’analyse stratégique et d’aide à la décision sur les pays développés et émergents.
Proxem, de son côté présentait deux produits qui n’étaient pas nouveaux : Ubiq Search, un logiciel d’analyse sémantique qui traite des millions de documents pour en extraire toute l’information stratégique et Proxem Discovery, un outil de veille et de collecte doté d’une brique sémantique.
Quant à Qwam, il mettait en avant sa solution de veille Ask’n’Read existant depuis plusieurs années qui permet aussi bien de surveiller le Web classique ouvert que les médias sociaux.
Du côté du salon RSE, deux des principaux acteurs du marché Jalios et Jamespot annonçaient tous deux l’intégration de leur outil avec Office 365.
Enfin, KB Crawl, acteur bien connu des outils de veille, présentait son nouveau module RSE (réseau social d’entreprise) qui s’intégrera avec les différents briques de la solution KB Crawl en matière de collecte, de capitalisation, d’analyse et de diffusion. Nous aurons également l’occasion de revenir sur les nouveautés de KB Crawl dans un prochain numéro de Bases.
Notre avis
Au final, cette édition a été riche en contenus aussi bien en raison de la qualité des différentes conférences que des produits présentés par les différents exposants. Il pourrait néanmoins être intéressant de diversifier un peu le type d’exposants avec une moins grande représentativité des éditeurs d’outils.
Vivement l’année prochaine !