SERVEURS • STN lance une interface Web plus conviviale
MÉTHODOLOGIE • Se former au-delà des frontières de l’infodoc
MÉTIER • Google Scholar : ami ou ennemi des outils professionnels ?
EN BREF • L’actualité du mois de Novembre 2017
Déjà abonné ? Connectez-vous...
La dernière édition de la manifestation ICIC en tant que telle vient d’avoir lieu à Heidelberg en Allemagne, citée universitaire charmante mais toujours aussi peu pratique d’accès.
Le schéma précis de cette organisation est original. Il a été créé il y a bien longtemps par Harry Collier et sa société Infonortics et a résisté fort longtemps, bien plus que le fameux Online de Londres qui a aussi duré longtemps mais s’est effondré totalement en quelques années, son modèle n’ayant finalement pas résisté aux évolutions, en particulier celle du Web.
On ne reviendra pas en détail sur les facteurs de succès de l’ICIC mais on rappellera l’originalité du couplage de la mini-exposition attenante à la conférence plénière sans sessions parallèles avec les présentations de 10 minutes des exposants. Autre détail bien pensé et pourtant évident, que nous n’avons jamais rencontré ailleurs, des badges de taille normale mais écrits en gros caractères, et surtout, imprimés recto-verso. C’est unique et pourtant élémentaire.
Cette session était une session de transition car malgré le format performant, tant le nombre de participants que le nombre d’exposants a inéluctablement décru depuis plusieurs années.
Déjà abonné ? Connectez-vous...
Nous avons déjà évoqué à la suite de l’édition 2016 de l’ICIC la généralisation de la reconnaissance automatique des éléments chimiques dans le texte, et ce quelle que soit la façon de les écrire (BASES n° 345, février 2017).
Comme on l’avait vu, au moins quatre acteurs étaient présents sur ce créneau : Infochem, en particulier avec l’OMPI, Ontochem IT Solution avec Infoapps, Chemaxon avec Questel, NextMove Software avec Minesoft (pour PatBase), sans oublier STN avec PatentPack basé sur la reconnaissance intellectuelle et non pas automatique des noms chimiques au sens large.
A l’occasion de l’édition 2017 de l’ICIC, Infochem (filiale de Springer Nature depuis 2015) a annoncé de nouveaux développements dans l’informatique appliqué à la chimie et en particulier a précisé l’ensemble des langues dans lesquelles son outil de reconnaissance fonctionnait désormais à savoir, l’anglais, l’allemand, le français, le russe, le coréen, le japonais et le chinois.
Infochem a notamment insisté sur le fait qu’ils adaptent précisément leurs prestations aux besoins précis de leurs clients, généralement dans le cadre d’un projet.
Lighthouse IP est une société néerlandaise créée en 2006 ayant de nombreux bureaux dans le monde. Son objectif est d’être la plus exhaustive possible dans le recensement de l’information sur les brevets et les marques.
En matière de brevets, Lighthouse IP couvre en texte intégral plus de 65 offices dans le monde. Ce texte intégral est dans la langue d’origine accompagné de traductions machine en anglais. Les deux versions sont « recherchables ».
La couverture inclut, en particulier, l’essentiel des offices asiatiques et sud américains.
Un double fichier baptisé DIAMOND sera disponible au premier trimestre 2018.
Le premier est un fichier bibliographique qui couvre 140 pays, l’objectif étant d’inclure tous les membres de l’accord PCT pour arriver à 152.
Le deuxième contient les informations légales dans un format analogue à celui d’Inpadoc. Mais, alors que seules les informations légales de 33 pays sont mises à jour régulièrement dans Inpadoc, Diamond offrira ces mises à jour pour une centaine de pays.
Déjà abonné ? Connectez-vous...
On connaissait déjà les accès professionnels à STN par STN Express ou par STN on the Web (attention pour cet accès à bien se connecter sur le site de FIZ Karlsruhe et pas sur celui de CAS). S’est ajouté en fanfare, il y a quelques années le «New STN» supposé remplacer et rendre obsolète les deux interfaces précédentes.
Le New STN, longtemps mis en avant, ne mettait toujours pas à disposition toutes les bases du catalogue et son développement apparaissait long et quelque peu problématique. Et effectivement, STN a fini par annoncer que cette interface utilisait des technologies nouvelles pour lesquelles des contraintes non prévues étaient apparues.
Cela a finalement conduit STN à arrêter le développement de cette nouvelle plateforme qui, pour le moment, reste accessible en l’état.
De leur côté, les interfaces STN on the Web et STN Express rencontrent, toujours d’après STN, des contraintes techniques rendant impossible de nouveaux développements.
C’est la raison pour laquelle une nouvelle interface, qui est une interface Web, a été développée et baptisée STNext.
Déjà abonné ? Connectez-vous...
On ne le répétera jamais assez mais se former en permanence à de nouvelles compétences est une qualité essentielle des professionnels de l’information.
Mettre à jour ses connaissances en veille, recherche d’informations ou tout autre sujet relatif à l’infodoc est bien évidemment indispensable, mais il serait dommage de s’y restreindre et de ne pas aller explorer des domaines annexes (formation, communication, etc.).
Cette idée d’article nous avait été suggérée par un visiteur d’un précédent salon i-expo qui nous avait expliqué les difficultés à identifier des formations dès lors que l’on sort du champ traditionnel de l’infodoc.
Effectivement, les organismes de formation, associations, conférences, salons gravitant autour de l’infodoc sont généralement bien connus des professionnels du domaine mais dès que l’on souhaite se former à des compétences nouvelles en dehors de cet univers, on arrive alors dans un monde complètement nouveau avec ses propres acteurs, experts et ses propres éléments de langage.
Déjà abonné ? Connectez-vous...
Dans l’imaginaire collectif des professionnels de l’information, Google Scholar, le moteur de recherche académique de Google, apparaît comme un concurrent des serveurs et bases de données payantes comme Scopus, Web of Science, Proquest, Proquest Dialog, etc.
S’il est de notoriété publique qu’une grande partie du contenu des sites et outils des éditeurs scientifiques se retrouvent sur Google Scholar, cela paraît moins évident pour le contenu des bases de données disponibles sur les grands serveurs.
Pourtant, on apprenait il y a peu que Google étendait sa collaboration avec Proquest en indexant près d’un demi million de thèses disponibles dans la base de données ProQuest Dissertations & Theses Global™ database (PQDT).
Rappelons que Google Scholar est un moteur de recherche dédié à la littérature scientifique lancé par Google à la fin de l’année 2004. Le moteur indexe le texte intégral ou les références bibliographiques de très nombreuses revues et ouvrages scientifiques et académiques, de thèses, d’actes de conférences et colloques, de preprints et même de brevets.
En terme de couverture, Google ne communique pas sur le nombre exact de documents indexés dans son moteur ni sur la liste exacte de ses partenariats avec des éditeurs ou des bases de données de professionnelles.
Ce que l’on sait, c’est qu’une grande partie du contenu des sites des éditeurs scientifiques et académiques sont indexés dans Google Scholar (Science Direct, Wiley Online, IEEE, ACM, etc.). On rappellera que l’accès au site des éditeurs scientifiques est gratuit et que les références des documents et le texte intégral des articles en Open Access sont accessibles gratuitement mais que l’accès au texte intégral des autres articles et ouvrages est quant à lui payant.
Plusieurs études ont également essayé d’estimer la taille de Google Scholar, certains l’évaluant à 100 millions de documents et d’autres à 160 millions.
Certaines voix laissent également entendre que Google Scholar propose une meilleure couverture des publications pour les Sciences dites « dures » que pour les Sciences Humaines et Sociales (SHS).
Google Scholar, contrairement aux grands serveurs et bases de données souvent utilisés pour la veille scientifique, a l’avantage d’être gratuit et accessible à tous. Cependant, ses fonctionnalités de recherche, de veille et d’analyse sont et restent bien en deçà de ce que peuvent proposer les grands serveurs ou agrégateurs.
Google Scholar n’a cessé de gagner en popularité au cours des dix dernières années. Très souvent, les chercheurs, étudiants, ingénieurs, etc. vont plus naturellement avoir le réflexe de se rendre sur Google Scholar que sur les serveurs et bases de données accessibles au sein de leurs institutions/entreprises.
Google Scholar peut donc apparaître comme un concurrent des serveurs et bases de données, et pourtant, certains de ces acteurs ont choisi de s’associer au géant américain...
Déjà abonné ? Connectez-vous...
Suite du feuilleton entre les éditeurs scientifiques et le réseau social scientifique ResearchGate.
Rappelons qu’au dernier épisode, les éditeurs avaient proposé un accord à ResearchGate pour limiter le nombre d’articles enfreignant les règles du copyright. Le réseau social n’a semble t-il jamais répondu à leurs sollicitations.
Cinq acteurs (American Chemical Society, Brill, Elsevier, Wiley et Wolters Kluwer) ont donc décidé de se regrouper pour créer la « Coalition for responsible sharing » et ont alors prévu de prendre des mesures légales envers ResearchGate.
Face à cette levée de boucliers, ResearchGate a décidé de réagir à sa façon en supprimant un certain nombre de publications présentes dans son système. Certaines publications ont ainsi été rendues privé avec un accès restreints à certaines personnes et d’autres ont tout simplement été supprimées sans que l’auteur n’ait été prévenu au préalable.
1.7 million d’articles auraient ainsi été supprimés ou rendus privés.
Chiffre insuffisant pour la « Coalition for responsible sharing » qui a alors envoyé des demandes de retrait massives.
Finalement le 6 octobre dernier l’American Chemical Society et Elsevier ont décidé de poursuivre en justice ResearchGate en Allemagne dans un but de « clarification ». Le feuilleton n’est donc pas encore terminé...
L’éditeur Wiley a récemment annoncé qu’il allait lancer en 2018 « Wiley Digital Archives » pour donner accès à des archives historiques en sciences et médecine. Le site offrira, moyennant paiement, des archives numérisées de prestigieuses institutions comme la New York Academy of Sciences ou encore le Royal Anthropological Institute of Great Britain and Ireland.
Il est prévu que de nouveaux partenaires soient ajoutés au fur et à mesure.
Parmi les contenus proposés sur la future plateforme, on comptera aussi bien des cartes, manuscrits, périodiques, documents administratifs, comptes-rendus de conférence, photographies, etc.
Ce mois-ci, Google continue à faire parler de lui sur différents sujets.
Le premier : la suppression de plusieurs fonctionnalités de recherche.
Auparavant, quand on souhaitait effectuer une recherche sur la version locale du moteur dans un pays en particulier, il suffisait de changer le domaine de l’url. Ainsi, il suffisait d’aller sur google.co.uk pour effectuer une recherche sur la version britannique, google.com pour la version américaine ou encore Google.de pour la version allemande.
Mais désormais, Google vient d’annoncer que changer le domaine de l’url ne permet plus d’afficher les résultats de recherche d’un autre pays. Quel que soit le domaine utilisé, Google affichera les résultats en fonction de la localisation de l’internaute.
Mais la bonne nouvelle, c’est qu’il existe des alternatives. De nombreux internautes et blogueurs se sont penchés sur la question et proposent des méthodologies.
La première consiste à lancer sa recherche dans le moteur puis à se rendre dans les paramètres, choisir la recherche avancée puis choisir le pays de son choix dans la rubrique « Régions ».
L’autre possibilité revient à utiliser un VPN(réseau virtuel privé) qui permet d’utiliser une adresse IP d’un autre pays.
Google a également annoncé avoir effectué des modifications sur son opérateur info:url
Cet opérateur permettait de savoir directement quelles informations étaient offertes par Google pour cette url précise : présence de la page en cache, possibilités d’afficher des pages similaires, etc. On peut toujours utiliser cet opérateur mais désormais, Google n’affiche plus aucune information... Même s’il est toujours dommage de voir disparaître des opérateurs, on se rassurera car il n’était pas le plus utile de la gamme des opérateurs de Google.
En revanche, le moteur vient d’ajouter une nouvelle fonctionnalité, à vocation plus personnelle que professionnelle. On peut désormais comparer deux produits (plutôt de grande consommation comme des téléphones par exemple) en entrant la requête produit 1 vs produit 2.
Google affiche alors un encadré avec les deux produits côte à côte et des éléments de comparaisons comme la note globale des commentaires, la fourchette de prix, le poids et différentes autres caractéristiques techniques.
A noter que la fonctionnalité n’est pas encore accessible pour tout le monde. Nous n’avons jamais réussi à la faire fonctionner depuis notre ordinateur. On suivra néanmoins son évolution avec attention surtout au cas où la fonctionnalité permettrait d’intégrer d’autres produits que les simples produits de consommation courants.
Dans la lignée de toutes les initiatives pour lutter contre les Fake news, Google va proposer différents éléments dans les résultats de recherche pour aider l’internaute à déterminer s’il s’agit d’une source fiable ou non. Lorsque l’internaute entre le nom d’un titre de presse ou site d’actualités, Google affiche parfois un « knowledge panel », c’est à dire un petit encadré qui décrit la source.
Notons que cet élément est loin d’être disponible pour tous les sites de presse et d’actualités. Dans ce « knowledge panel », les utilisateurs auront désormais accès à des informations complémentaires comme les récompenses reçues, les principaux sujets couverts, etc. Même si l’initiative n’est pas inintéressante, on est encore loin de pouvoir disposer d’informations sur un large corpus de sites Web et cette fonctionnalité ne semble pas encore disponible en France...
C’est indéniablement Twitter qui a fait la Une ce mois-ci en augmentant le nombre de caractères qui faisait son originalité depuis le début. Twitter passe donc de 140 à 280 caractères. Difficile de savoir ce que cela va réellement changer pour les utilisateurs du service d’autant plus que même avec 140 caractères, seuls 9% des tweets atteignaient la limite. Il est cependant intéressant de se souvenir qu’à une époque, Facebook lui aussi limitait le nombre de caractères des statuts à 160 et avait levé cette limitation en 2011 seulement.
D’autre part Twitter vient d’annoncer le lancement d’une version payante à 99 $/mois (en beta publique pour le moment). Rassurez-vous Twitter, ne va pas devenir complètement payant. Cette offre permet aux comptes qui la souscrivent de bénéficier d’une promotion automatique du compte et de ses tweets afin d’avoir une meilleure visibilité et de gagner de nouveaux followers. On espère simplement que cela ne va pas conduire à une explosion des tweets sponsorisés...
De son côté, Facebook a ajouté de nouvelles fonctionnalités pour les groupes. Au programme : un message d’accueil pour les nouveaux membres, un système de badge permettant de mieux repérer qui sont les administrateurs, quelques détails sur les profils des membres afin de mieux comprendre qui fait partie du groupe avant de s’y inscrire et de nouvelles options de contrôle.
LinkedIn a quant à lui annoncé une nouvelle fonctionnalité sur les pages entreprises pour les versions premium et supérieures uniquement. Les utilisateurs pourront ainsi visualiser sur les pages entreprises différentes informations comme l’évolution du nombre d’employés sur les derniers mois, la répartition des employés par fonction, l’évolution du nombre d’offres d’emploi par fonction, etc.
Si ces données peuvent avoir une forte valeur stratégique et concurrentielle, LinkedIn précise que ces statistiques sont basées sur les données présentes dans LinkedIn. Pas sûr qu’il faille prendre ces informations pour argent comptant car il existe une vie en dehors de LinkedIn...
Enfin Pinterest lance ses « sous-tableaux » pour mieux catégoriser les images partagées par ses utilisateurs.
Ce mois-ci, il faut bien penser à revoir son système de veille basé sur les flux RSS !
Google News a annoncé avoir amélioré ses flux RSS sortants. Par conséquence, l’url de chaque flux RSS va changer et l’ancienne version ne sera plus disponible à partir du 1er décembre. Mais la bonne nouvelle est pour les utilisateurs d’Inoreader car le lecteur de flux a mis à jour automatiquement tous les flux RSS issus de Google news pour tous ses utilisateurs.
D’autre part, la nouvelle version de Firefox appelée Quantum (version 57 de Firefox déjà !) qui va être lancée courant novembre va rendre obsolète un certain nombre d’extensions utilisées pour la veille comme par exemple RSS Icon in URL Bar, un plugin qui permettait de savoir si un site proposait des flux RSS même si ce n’était pas visible au premier coup d’œil. Plusieurs internautes proposent comme alternative Awesome RSS, qui, lui, est compatible avec la nouvelle version de Firefox. Pensez donc à vérifier la compatibilité de tous vos plugins et extensions !
Inoreader, le lecteur de flux qui sait tout faire ou presque vient d’augmenter la limite dans le nombre de flux Twitter, Facebook et Vkontakte qu’il est possible d’intégrer dans la version Pro. Pour chacun de ces médias sociaux, la limite est désormais de 100 flux alors qu’il était de 60 auparavant. On se rappellera qu’en 2014, la limite pour les flux Twitter était déjà de 100 mais avait été abaissée par la suite.
Nous avons eu plusieurs fois l’occasion de mentionner l’évolution de Netvibes au cours des dix dernières années, l’outil étant passé d’un simple lecteur de flux 100% gratuit à une plateforme de veille onéreuse mais avec des fonctionnalités de plus en plus avancées.
Il vient d’annoncer pour ses comptes premium Entreprise la possibilité de conserver un nombre illimité de données (articles, tweets, posts, etc.) sur une durée de 12 mois, 24 mois ou plus. Les utilisateurs pourront donc effectuer des recherches d’antériorité sur leur corpus personnalisé.
Attention cependant, il semble que les archives ne soient disponibles qu’à partir de la date où l’utilisateur a intégré la source dans Netvibes.
Nous avons découvert ce mois-ci deux petits outils à ajouter à sa panoplie de professionnel de l’information.
Tout d’abord Ambiently, une extension qui recommande des contenus relatifs aux pages visitées et d’autre part, History search, une extension Firefox qui permet de lancer des recherches sur le contenu des pages visitées et présentes dans l’historique de recherche de son navigateur. Une sorte de Google CSE pour son historique de recherche...
Figure 1. Interface d’Ambiently
Figure 2. Interface d’History Search
MÉTIER • Moteurs de recherche humains : des documentalistes au rabais ?
RETOUR D’EXPÉRIENCE
• Joseph Noumbissi, Hydro-Québec : professionnel de l’information de l’autre côté de l’Atlantique
EN BREF • L’actualité du mois d’Octobre 2017
INFORMATION SCIENTIFIQUE • HighWire Press a abandonné son moteur de recherche
SERVEURS • TableBase de retour sur Dialog
Déjà abonné ? Connectez-vous...
Si Google détient le quasi-monopole du marché de la recherche d’information Web grâce à une ambition et une intelligence hors normes, force est de le reconnaître, il ne détient heureusement pas le privilège de l’innovation. Le Goliath du Search donne même assez souvent envie à des David en herbe de relever le défi de la recherche et d’inventer des modèles de recherche alternatifs.
On constate avec plaisir que la France est présente sur ce terrain, les exemples ne manquant pas, avec pour les plus connus, Exalead, Qwant et maintenant Xaphir.
Parmi les initiatives qui ont vu et continuent de voir le jour, il existe une catégorie de moteur particulière : le « human powered search engine », que l’on pourrait traduire par moteur de recherche humain, ou « à modération humaine », comme les qualifie Phil Bradley sur son blog. Ce type de moteur se différencie en ce qu’il réintroduit l’expertise humaine dans un modèle de recherche algorithmique dominant.
En effet, face à l’automatisation à outrance de la recherche - Google comme Bing mettent surtout en avant la puissance de leurs algorithmes, - ces moteurs proposent un modèle où l’intervention humaine est sollicitée. Celle-ci peut prendre plusieurs formes. Cela va de la qualification et filtrage de l’information du web via la production de listes de résultats supposés être plus pertinents et plus fiables que les moteurs traditionnels par rapport à la recherche de l’internaute, jusqu’aux sites web offrant à l’internaute de sous-traiter sa question, quelle qu’elle soit, à des experts distants, rémunérés ou non.
Un professionnel de l’information doit à notre sens s’interroger constamment sur son positionnement en termes de service et sur les modes de valorisation de son expertise de recherche pour la structure cliente. Dans cette optique, ces moteurs doivent être regardés attentivement.
Nous allons donc essayer ici d’analyser quelques-unes de ces initiatives, y compris celles qui ont échoué, en regardant les modèles proposés, les arguments techniques et commerciaux, et leur performance. Nous pousserons même l’expérience plus loin, puisque nous avons sollicité l’un d’entre eux, AskWonder, pour une recherche d’information réelle, correspondant à une problématique que nous traitons pour un client - afin de pouvoir rendre compte d’une expérience concrète dans cet article.
Déjà abonné ? Connectez-vous...