Marie-Laure Chesne-Seck est actuellement consultante pour le cabinet Ourouk, spécialisé en management de l’information. Après une carrière de chercheur en biophysique, elle gère l’information scientifique, puis crée une fonction d’« Intelligence Scientifique » pour le public R&D d’un grand groupe pharmaceutique.
Au travers d’une série de trois articles, je souhaitais partager mon expérience de transformation de la fonction info-doc au sein de la R&D d’un grand groupe pharmaceutique.
Rappelons que la feuille de mission qui m’était confiée était large, et comportait notamment la gestion de la transition avec l’offre de service de l’ancienne fonction info-doc, en accompagnant l’autonomisation des publics, la mise en place d’une offre d’« Intelligence scientifique » en support de la prise de décision, l’AMOA1 et l’animation de systèmes d’information collaboratifs, et la gestion intelligente d’un budget destiné à l’outsourcing d’une partie de l’activité.
Lire aussi:
De la recherche d’information vers l’analyse à valeur ajoutée
Le « kit de départ » de la fonction « Intelligence Scientifique », qui m’avait été confié, comportait un budget à gérer pour activer des prestataires extérieurs si nécessaire, lesquels prestataires compléteraient mon « équipe », puisque je débutais seule sur la fonction. Dans mon cas, l’ensemble des motivations ci-dessus étaient présentes, puisqu’en plus de me trouver en situation d’effectif réduit, je devais créer une offre de services, tout en étant novice sur certains aspects.
Déjà abonné ? Connectez-vous...
La manifestation ICIC semble s’être fixée à Heidelberg … lieu de résidence de Christophe Haxel son organisateur.
L’édition 2017 qui se tiendra du dimanche 22 octobre au soir au mardi 24 est dans la ligne des précédentes éditions avec une conférence alternant présentations «scientifiques» et présentations de produits, sans sessions parallèles, le tout accompagné d’une petite exposition.
Les thèmes abordés dans la conférence concerneront le deep learning, l’intelligence artificielle, l’utilisation des brevets tant pour le développement que pour l’analyse.
Plusieurs conférences concerneront aussi spécifiquement la chimie avec des conférenciers issus d’acteurs connus comme ChemAxon, InfoChem ou Minesoft.
On notera, par ailleurs, que Christophe Haxel qui organise aussi la manifestation II SDV, dédiée au data mining et dataviz, lance une nouvelle manifestation en Inde à Bangalore les 2 et 3 novembre 2017 baptisée II-PIC 2017 qui signifie International Indian Patent Information Conference for Patent Information Professionals.
Lien : www.haxel.com
Le processus de veille s’appuie dans bien des cas sur une collecte multi-supports, impliquant une large variété de sources.
Cependant, une grande partie des informations est retrouvée dans des sources d’information de type presse/actualités qu’on peut classer globalement en deux grandes catégories de supports.
D’une part, les sources dites « PRINT », qui sont l’équivalent numérique de ce qui est publié sous forme papier et qu’on peut consulter et surveiller via des serveurs professionnels classiques comme Factiva, Pressedd, Europresse ou LexisNexis ; d’autre part, les sources « ONLINE » ou « WEB » parmi lesquelles on distingue notamment :
Ce contenu correspond à ce qui est diffusé en ligne, mais qui peut pour partie doublonner avec les médias imprimés (par exemple le contenu du quotidien Le Monde, et celui du monde.fr).
Pour capter ce contenu offert en ligne, plusieurs solutions s’offrent au veilleur :
Les outils ne manquent pas pour suivre les flux RSS, il existe en effet depuis de nombreuses années un choix important de lecteurs de flux offrant plus ou moins de possibilités. Cependant, au sein de cette offre pléthorique, deux systèmes innovants se distinguent à nos yeux, et ont de ce fait retenu notre attention :
Au-delà d’un constat de solutions technologiques très différentes, existe-t-il une valeur ajoutée à traiter les flux RSS de façon intégrée au sein d’un agrégateur comme LexisNexis ou bien est-il plus efficace et pratique de les analyser au sein d’un outil dédié tel que Inoreader ? Pour tenter d’apporter un éclairage, nous nous sommes focalisés plus précisément sur les facilités respectives des deux systèmes pour administrer ou gérer l’ajout de flux RSS, sur la comparaison des résultats générés par l’un ou l’autre moyen, et enfin sur l’aspect collaboratif.
Déjà abonné ? Connectez-vous...
L’INPI (Institut national de la propriété intellectuelle) a profité du salon Viva Tech pour lancer son nouveau service de cartographie des inventions.
Cette approche de création de paysages (exemple en Figure 1) avec montagnes, vallées, océans dans lesquels sont positionnés les brevets d’un secteur précis est loin d’être une nouveauté.
Figure 1. Exemple de « Patent landscape »
Cela fait, en effet, de nombreuses années que des serveurs comme Orbit Intelligence ou STN proposent de réaliser de tels paysages.
Déjà abonné ? Connectez-vous...
I-EXPO 2017
• Entre intuition et méthodologie : la veille gagnante en 2017
• Veille, intelligence stratégique et concurrentielle : comment en faire des moteurs au service de l’agilité et des performances ?
RETOUR D’EXPÉRIENCE
• De la gestion de l’accès à l’information vers la création de connaissances via des dispositifs collaboratifs
ACTUALITÉS
• En bref
Déjà abonné ? Connectez-vous...
Cet atelier était organisé par FLA Consultants et animé par Anne-Marie Libmann, directrice opérationnelle, Lilia Rusnac, responsable du pôle International, Aurélie Vathonne, responsable du pôle Veille et Carole Tisserand-Barthole, rédactrice en chef de Bases et Netsources.
La conférence portait sur le profil et les compétences du veilleur dans l’entreprise d’aujourd’hui.
Anne-Marie Libmann a souligné en introduction le rôle d’observateur particulier de la société FLA Consultants, dû à son positionnement original :
Fort de ce positionnement, FLA Consultants observe une forte évolution que l’on pourrait même qualifier de changement de paradigme : le veilleur dans sa pratique et dans sa position n’est plus dans de nombreux cas un expert de l’information, mais un opérationnel qui a intégré une compétence de veille de façon pragmatique à des fins opérationnelles.
Ce n’est donc plus un spécialise de l’information au sens traditionnel du terme, mais plutôt un analyste qu’il serait sans doute plus pertinent de qualifier d’analyste veilleur, suggère Anne-Marie Libmann.
Nous sommes bien loin du modèle du passé, incarné par les centres de documentation, avec un accès unique et central à l’information et aux outils. Et appréhender la façon dont le nouvel « analyste veilleur » agit, réagit et interagit en 2017, n’est pas chose aisée, en raison des pratiques complexes et variées de ce métier, dont le positionnement a connu de fortes évolutions et en connaît encore. Ces évolutions, point de départ de la conférence, sont retracées dans l’encadré en page 3 (plus loin dans cet article).
Déjà abonné ? Connectez-vous...
Cette conférence rassemblait Patrick Devaux (VP Market Intelligence, Airbus), Gaspard Le Roux (Business intelligence analyst, Thales communication & security), Laetitia Nourissat Gourd (Ceo-founder, Decidento) et Valentin Naidja (Directeur Commercial EMEA/APAC chez Talkwalker).
Témoignant de leurs expériences personnelles respectives, les quatre intervenants ont répondu à la problématique suivante : comment faire de la veille le moteur de l’agilité et de l’innovation pour l’entreprise mais aussi de quelle manière organiser sa veille stratégique et concurrentielle et la placer au centre du business de l’organisation ?
Malgré la qualité et la diversité des intervenants, cette conférence n’a pas permis de détecter de concepts novateurs ou d’analyses évolutives et pratiques pertinentes, ni de visions qui tendent à dépasser la stricte définition ou encore les traditionnels obstacles et défis des pôles veille en entreprise.
Ainsi, la veille, son organisation et sa performance au sein de l’entreprise ont été principalement présentées à travers le prisme d’un processus très structuré, qui démarre nécessairement par le cadrage de l’expression des besoins du client avec parallèlement la réalisation d’un sourcing sur mesure. S’en suivent de facto la collecte, l’analyse et enfin la diffusion (interne/externe) de l’information. L’étape de diffusion a été évoquée comme essentielle pour valoriser la veille, par les intervenants et notamment Gaspard Le Roux (Thales) qui a par ailleurs mentionné que des sondages pouvaient être réalisés en interne afin de mesurer l’impact de la veille dans l’entreprise.
Dans une approche visant à renforcer la veille et son efficacité, Patrick Devaux (Airbus) a insisté sur la nécessité de travailler en réseau (interne et externe) et d’établir une veille transverse dans l’entreprise en organisant d’une part la remontée d’information et d’autre part une redistribution de celle-ci vers toutes les business units. De même, l’importance des spécialistes en langues étrangères a une fois encore été présentée comme très stratégique par les intervenants et en particulier Patrick Devaux, qui a également rappelé la nécessité d’une sensibilisation à la veille très tôt au sein des cursus universitaires et des formations en entreprise.
Marie-Laure Chesne-Seck est actuellement consultante pour le cabinet Ourouk, spécialisé en management de l’information. Après une carrière de chercheuse en biophysique, elle gère l’information scientifique, puis crée une fonction d’« Intelligence Scientifique » pour le public R&D d’un grand groupe pharmaceutique.
Dans le cadre d’une série de trois articles, où Marie-Laure Chesne-Seck partage son expérience de la transformation de la fonction info-doc, l’auteur a d’abord exploré1 les pistes suivies pour proposer une offre d’analyse à valeur ajoutée.
Lire aussi :
De la recherche d’information vers l’analyse à valeur ajoutée
De l’excellence opérationnelle à une externalisation maîtrisée
Rappelons que la feuille de mission qui m’était confiée était large, et comportait notamment la gestion de la transition avec l’offre de service de l’ancienne fonction info-doc, en accompagnant l’autonomisation des publics, la mise en place d’une offre d’« Intelligence scientifique » en support de la prise de décision, l’AMOA2 et l’animation de systèmes d’information collaboratifs, et enfin la gestion intelligente d’un budget destiné à l’outsourcing d’une partie de l’activité.
Les deux nouveaux systèmes d’information sur lesquels j’ai été appelée à travailler faisaient partie d’un large programme de refonte de l’ensemble des systèmes d’information destinés au public R&D, lequel incluait la mise en place d’une interface unique permettant d’accéder aux différentes bases de données. Les projets concernés par ce programme allaient du cahier de laboratoire au système de suivi de l’activité, en passant par l’analyse des données. L’idée était de lutter contre les « silos » entre départements, entre métiers, entre équipes en proposant des lieux numériques de discussion et de connaissance accessibles à tous, pour en finir avec les documents stratégiques perdus au fond d’un dossier ou d’une boîte mail.
La participation en tant qu’AMOA à des projets de gestion des connaissances faisait partie des besoins identifiés lors de la création de la fonction d’ « Intelligence Scientifique ». En effet, les équipes IT (DSI), faute de relais business dédié (souvent désigné comme « IT business partner »), finissaient souvent par prendre en charge à la fois l’AMOA et la MOE3, ce qui aboutissait à une insatisfaction de part et d’autre : pour les informaticiens, une surcharge de travail et la contrainte s’assumer des activités en dehors de leurs attributions naturelles ; du coté business, un sentiment de dépossession des problématiques IT, pourtant centrales pour la bonne marche de l’organisation.
Ainsi, la gestion de ces projets s’est faite « main dans la main » avec un chef de projet IT, plus spécifiquement chargé d’adresser les aspects techniques, l’AMOA étant donc chargé de porter les besoins métier.
Déjà abonné ? Connectez-vous...
Claritive Analytics qui a récemment racheté les activités Propriété Intellectuelle de Thomson a annoncé son intention d’investir dans Web of Science en élargissant sa couverture de l’ « Emerging Sources Citation Index ». L’index passera ainsi de 5 000 revues émergentes à 7 500 et ce sont dix années d’archives qui seront également proposées dans le cours de l’année.
Les « fake news » et la désinformation ne cessent de faire la Une des médias en cette période d’élection. Facebook et Google se sont eux-mêmes lancés dans la course au fact checking en proposant un meilleur contrôle du contenu partagé en ligne et en lançant ou en s’associant à des outils et projets de fact checking, en l’occurrence de vérification des informations.
En France, plusieurs initiatives coexistent depuis plusieurs années mais le dernier en date vient d’être lancé par le quotidien Libération. Checknews (http://checknews.fr/), c’est son nom, se définit comme un moteur de recherche humain pour lutter contre la désinformation. Les internautes posent leurs questions sur le moteur : si une réponse à cette question existe déjà, il est renvoyé vers cette réponse. Dans le cas contraire, sa question va être traitée par un journaliste qui va se charger de vérifier les faits et rédiger une réponse.
Seul bémol : Libération ne semble pas avoir anticipé le succès de son moteur qui affiche, quelques jours à peine après son lancement, un message de maintenance car les journalistes sont noyés sous le flux de questions et préfèrent les traiter avant d’en accepter de nouvelles.
Chatbotet intelligence artificielle sont les sujets du moment. Le moteur Bing est actuellement en train de tester un système de chatbot au niveau de ses résultats de recherche. Pour le moment, cela est limité à quelques villes américaines et n’est utilisable que dans le cas d’une recherche de services (restaurants par exemple). Le chatbot est ainsi capable de répondre à quelques questions basiques comme les horaires d’ouverture ou les possibilités de parking à proximité. Reste à voir si dans les années à venir les chatbots seront pertinents et en mesure d’être utilisés dans un cadre professionnel, ce qui est encore loin d’être le cas.
Face à Google et dans une moindre mesure à Bing, quelques moteurs français tentent d’attirer l’attention vers leurs propres solutions, sans grand succès pour le moment. C’est le cas de Qwant, un moteur dont nous avions déjà eu l’occasion de parler dans l’article « Alternatives à Google : est-ce vraiment utile ? » ( Netsources n°125 - Novembre/Décembre 2016). Il ressortait à l’époque que les résultats étaient très proches de ceux de Bing mais avec moins de fonctionnalités de recherche. Peu d’intérêt pour le professionnel de l’information donc !
Mais la start-up a récemment annoncé qu’elle utilisait les supercalculateurs de Nvidia pour développer le machine learning et améliorer la performance de son moteur. Nous retournerons tester le moteur d’ici quelques mois pour vérifier s’il mérite enfin sa place dans la panoplie du veilleur.
D’autre part, un nouveau moteur français vient de faire son apparition : Xaphir qui a été lancé en mars dernier. Son but : faire sortir l’utilisateur de sa bulle de filtre. Le fonctionnement est d’ailleurs original et essaye de sortir de la recherche par mots-clés et du système de PageRank. L’utilisateur est invité à valider les contenus pertinents et supprimer ceux qui ne le sont pas. Nous avons fait quelques tests et les résultats sont pour le moment dramatiquement mauvais... Comme pour Qwant, nous reviendrons le tester dans plusieurs mois...
Il y a quelques mois nous vous annoncions que Google allait séparer son index en deux : l’un pour la recherche sur ordinateur et l’autre pour la recherche mobile. Alors que le lancement était initialement prévu pour bientôt, il semblerait que le projet ait pris du retard. Google parle maintenant de 2018.
Surveiller Twitter sans disposer d’une plateforme de veille payante n’est pas une mince affaire et le plus simple consiste à avoir recours aux flux RSS. Mais Twitter les a supprimés il y a quelques années... Et comme, nous avons déjà eu l’occasion de le mentionner à plusieurs reprises dans Bases, les principaux médias sociaux comme Twitter, Facebook ou encore LinkedIn ne cessent de restreindre l’accès de leurs services à des applications et outils tiers afin que leurs utilisateurs soient obligés de passer par leur plateforme pour la moindre de leurs actions.
Heureusement, de nouveaux services continuent de voir le jour régulièrement. C’est le cas du Twitter RSS Feed Generator proposé par Duplicate (http://bit.ly/2pveqdd) qui permet de créer des flux RSS sur des listes Twitter, des hashtags et même des recherches dans le moteur de Twitter. L’outil est simple et ergonomique. Il ne reste plus qu’à espérer qu’il ne disparaîtra pas d’ici la fin de l’année...
Parmi les outils de veille et de curation dont nous avons régulièrement l’occasion de parler, on note un certain nombre de nouveautés et d’évolutions des fonctionnalités.
Brandwatch, la plateforme de veille sur les médias sociaux à laquelle nous avions consacré un article dans le n°126 (janvier/février 2017) de Netsources vient d’annoncer un « nouveau partenariat stratégique avec Twitter ». Pour le moment, peu de détails mais on sait déjà que Brandwatch disposera d’un accès complet aux données de Twitter, accèdera à l’ensemble des produits développés par Twitter et qu’ils travailleront ensemble pour développer de nouvelles solutions sur le marché.
Comme on l’a dit, les médias sociaux restreignent de plus en plus l’accès à leurs données via des applications tierces. Il peut donc être intéressant de prendre cet aspect en considération dans le choix d’un outil. Rappelons que Brandwatch n’est pas le seul acteur à disposer d’un partenariat avec Twitter : on pourra citer également Sprinklr, Sysomos ou encore Talkwalker.
Parmi les autres nouveautés :
- Le logiciel de veille WebsiteWatcher offre une meilleure prise en compte des flux RSS dans la dernière version de son logiciel. Rappelons qu’il s’agit d’un outil de surveillance de pages Web, peu ergonomique certes mais très efficace et peu coûteux.
L’ouverture des données en France continue sa route.
La SNCF qui s’était lancée dans l’aventure en 2012 vient d’ajouter une centaine de jeux de données. La plateforme Open data https://ressources.data.sncf.com propose donc désormais presque 200 jeux de données différents.
Depuis le 1er mai, l’administration fiscale rend accessible au grand public les données contenues sur son service en ligne Patrim dédié aux transactions immobilières. Créé en 2013, il recense les informations essentielles, mais anonymisées, de toutes les transactions immobilières. La recherche est désormais gratuite mais il faut cependant renseigner son numéro fiscal et son revenu fiscal de référence pour y accéder.
Quelques mois après la promulgation de la loi pour une République numérique, le service public de la donnée fait ses débuts avec les premières bases de données de référence et le lancement d’un espace dédié sur la plateforme data.gouv.fr : www.data.gouv.fr/reference.
Neuf bases de données sont pour le moment disponibles :
Le secteur de l’énergie en France semble s’intéresser de près à l’Open Data avec plusieurs projets en cours.
D’une part, Engie va prochainement ouvrir les données de son parc éolien de Haute-Borne dans la Somme.
D’autre part, RTE et GRTgaz ont annoncé le lancement de la plateforme opendata.reseaux-energies.fr qui donne accès à « un ensemble de données de production et de consommation d’énergie au niveau national mais aussi local ».
SALON / CONFÉRENCE • i- expo 2017, un bilan contrasté
I-EXPO 2017
• Chez Sindup, analyse et chatbot au programme
• Intelligence artificielle, mobilité, collaboratif, data intelligence, traitement avancé des datas : comment la transformation digitale transforme l’information et la veille ?
• Cikisi, Newscrush et Trafalgraph : de nouveaux visages, p. 4 • Entre outils gratuits et outils payants, quelles nouvelles méthodes efficaces de veille et de recherche sur le web visible et invisible ?
RETOUR D’EXPÉRIENCE • De la recherche d’information vers l’analyse à valeur ajoutée
Déjà abonné ? Connectez-vous...