De nombreux articles et contenus de qualité utiles aux professionnels de l’info-doc sont publiés sur le Web au quotidien.
Encore faut-il avoir le temps de suivre ces blogs et sites spécialisés et de lire leurs nombreuses publications…
Nous avons donc sélectionné pour vous nos meilleures lectures de mai et juin.
Au sommaire de ce mois-ci, ce sont deux articles anglophones traitant de l’intelligence économique qui ont attiré notre attention.
Le site d’informations américain Information Management a publié au mois de mai un article sur l’influence du Big Data sur la veille et l’intelligence économique.
L’article s’intéresse notamment aux entreprises qui profitent du lucratif marché des big data et vendent une partie de leurs données, données qui peuvent ensuite être utilisées par des concurrents dans le cadre d’une veille concurrentielle.
Selon une étude citée dans l’article, cette pratique de vente de données serait néanmoins plus développée en Asie qu’en Europe ou même aux Etats-Unis.
L’intelligence économique ne devrait pas se limiter à la surveillance de ses concurrents, c’est en substance la thèse de l’article paru sur le site de Harvard Business Review au mois de Mai.
On y découvre notamment une initiative de l’entreprise Mars (datant d’il y a quelques années) menée alors par la directrice de l’intelligence économique qui consistait à faire des jeux de « simulation concurrentielle » avec les équipes locales de l’entreprise un peu partout dans le monde (Russie, Mexique, Turquie, Royaume-Uni, etc). Il ne s’agissait pas de simples simulations sur ordinateur mais bien de jeux de rôle complexes et menés dans des conditions réelles et qui ont notamment permis aux dirigeants de l’entreprise de voir leur marché sous un angle différent et inhabituel.
D’autres pistes sont également évoquées pour mener une stratégie d’intelligence économique efficace.
Un article paru dans la revue britannique Research Information d’Avril/Mai 2015 et librement accessible en ligne s’intéresse à la façon dont la technologie a changé notre façon de rechercher et d’utiliser l’information sous l’angle des éditeurs scientifiques et de leurs plateformes.
Les récents développements, les challenges rencontrés et les futures tendances impactant ces plateformes y sont détaillés. On y trouve des témoignages de Semantico, Highwire, Emerald, etc.
Sur le site du cabinet Kleiner Perkins Caufield & Byers (KPCB), on trouve une longue présentation de 196 pages de Mary Meeker sur les tendances d’Internet en 2015. On y trouve des statistiques sur le marché et les utilisateurs d’Internet, les dernières tendances, les marchés à forte croissance, des données sur la publicité sur le Web et les dernières nouveautés, les changements et évolutions du Web qui impactent le monde de l’entreprise, etc.
Au début de l’année 2015, Laure Tarrade, une professionnelle de l’information, avait questionné les abonnés de la liste de diffusion Juriconnexion sur leurs pratiques en matière de Knowledge Management. A la suite de ces échanges, elle a réalisé une synthèse des réponses obtenues, qui a récemment été publiée sur le site Sérendipidoc. La synthèse aborde la question des spécificités du KM dans le domaine juridique, les différentes solutions techniques proposées et des préconisations (étude des besoins, cahier des charges du logiciel, procédés de récupération et mise à jour des données, validation de l’information, soutien des associés et reconnaissance de l’activité KM, sensibilité et sécurité des données).
Le 28 Mai dernier, l’ADBS Bretagne, le CFCB et l’URFIST ont organisé à Rennes une journée sur le « Big & Open Data : conséquences et compétences pour le professionnel de l’information ». On peut d’ores et déjà retrouver sur le site de la conférence les supports de présentations suivants :
Le site renvoie également vers les séquences vidéos et les tweets publiés lors de la journée d’étude.
Effectuer un sourcing sur une thématique précise requiert un temps non négligeable. Alors quand certains internautes ou professionnels s’en sont déjà chargés et ont publié la liste des sources identifiées, il serait dommage de s’en priver. Ce mois-ci, nous avons identifié trois sites et blogs ayant publié leurs listes de sources : une sur la twittosphère Datascience Française, une sur les sources parlementaires et une sur les blogs Tumblr à suivre dans le domaine de la datavisualisation.
On connaissait IFTTT, un petit outil gratuit et très pratique permettant d’automatiser certaines tâches sur le Web (comme par exemple, sauvegarder automatiquement ses images sur Dropbox ou republier automatiquement sur LinkedIn ou Facebook ce que l’on vient de publier sur Twitter, etc) mais nous avons découvert Zapier (un outil similaire mais beaucoup plus puissant selon certains). La présentation de 28 pages présente les deux outils, l’auteur décrit les différentes utilisations qu’il en fait au quotidien et présente les différences et les complémentarités entre les deux outils.
Google CSE est un outil puissant proposé par Google depuis 2006 qui permet de créer ses propres moteurs de recherche personnalisés. Il existe deux versions : une gratuite et une payante. Steve Rath propose un tutoriel très détaillé publié sous la forme de deux billets : un premier publié en janvier dernier et le second au cours du mois de mai.
Il n’est pas rare de devoir effectuer des recherches sur les réseaux sociaux professionnels comme LinkedIn ou Viadeo. Malheureusement, leurs moteurs de recherche interne ne sont généralement pas très perfectionnés et ne permettent pas d’effectuer de requêtes complexes. Cet article présente dans le détail différentes méthodes et astuces pour interroger Linkedin en utilisant Google.
A l’origine, cet article et le guide pratique qui lui est associé s’adressent aux journalistes pour les aider à vérifier leurs informations dans un monde où l’information circule à vitesse grand V et que tout le monde recherche la course aux scoops. Le « guide de la vérification » (traduit du guide anglais « Verification handbook ») se présente sous la forme de 10 chapitres et aborde les thématiques suivantes :