Comme chaque année, Google organise au mois de mai sa fameuse conférence annuelle appelée Google I/O (pour Input/Output). Deux jours de show à l’américaine avec des annonces de nouveautés de produits et de fonctionnalités.
Nous les avons analysées en détail pour voir comment cela allait faire évoluer la recherche d’information et la veille professionnelle.
Trois grands axes d’innovation ressortent cette année : l’un concernant la vidéo et notamment YouTube, un second l’image et un usage accentué de l’IA et le dernier la traduction appliquée à différents types de contenus.
Lire aussi :
Comment intégrer YouTube dans votre dispositif de veille
La recherche sur Google se meurt, et maintenant ?
Comment s’adapter aux nouveautés et restrictions de la recherche d’image inversée sur le Web ?
Google n’est plus un moteur de recherche ni de réponses, mais un assistant virtuel
Le professionnel de l’info face à un Google en perpétuel mouvement
Comment utiliser Google pour des questions complexes ? Restez simple
YouTube propose déjà depuis quelque temps des sous-titres et transcriptions automatiques de qualité très variables pour les vidéos hébergées sur sa plateforme.
La transcription et les sous-titres automatiques ne fonctionnent que pour 13 langues actuellement : allemand, anglais, coréen, espagnol, français, indonésien, italien, japonais, néerlandais, portugais, russe, turc et vietnamien.
Comme ces fonctionnalités ne sont pas activées par défaut, on rappellera qu’on accède :
Lors la conférence annuelle, nous avons donc appris qu’il était désormais possible de traduire à la volée les sous-titres automatiques dans n’importe quelle langue supportée par Google Translate.
Les sous-titres automatiques sont donc « activables » pour les 13 langues annoncées précédemment et il est ensuite possible de visualiser la traduction de ces sous-titres.
À titre d’exemple, il est donc possible de visualiser une vidéo en turc (l’une des 13 langues supportées), activer les sous-titres automatiques puis choisir de visualiser ces sous-titres en français (cf. Figure 1.).
Déjà abonné ? Connectez-vous...
Les contenus multimédias et notamment les vidéos et les podcasts continuent de se multiplier sur le Web et les réseaux sociaux, avec des contenus potentiellement pertinents et professionnels pour la veille et la recherche d’information, que l’on ne retrouve pas nécessairement sous un autre format.
Mais tous ces contenus restent difficiles à appréhender et à intégrer pleinement dans nos processus de veille ou de recherche. À tous les niveaux d’ailleurs, qu’il s’agisse du sourcing, de la collecte, de l’analyse ou de la diffusion.
Trouver ces contenus est un premier défi, car on ne recherche généralement que sur les métadonnées (titre, descriptif, tags), ce qui est très (trop) restrictif. Et les solutions qui indexent en texte intégral et permettent de rechercher efficacement sur le contenu sont généralement onéreuses.
Une fois que l’on a identifié des vidéos a priori pertinentes, les analyser et capitaliser sur leur contenu est un défi tout aussi grand.
C’est à cette phase que nous allons nous intéresser dans cet article avec un outil qui coche pratiquement toutes les cases : Azure Video Indexer qui est gratuit, performant et simple à utiliser.
Lire aussi :
Comment intégrer YouTube dans votre dispositif de veille
Avec le Live Streaming, les médias innovent mais le veilleur souffre
Recherche et veille Radio Télévision : les meilleurs outils
Mediatree veut faire profiter les veilleurs et professionnels de l’information de sa technologie de veille audiovisuelle
La révolution multimédia bouscule la veille
Dans cet article, nous expliquons en détail la démarche à suivre pour utiliser tout le potentiel de l’outil et récupérer les transcriptions de vidéos et podcasts et les explorer. Dans un second temps, nous évaluons les qualités et défauts de cet outil et son intérêt pour toute personne confrontée à la veille ou la recherche d’information sur les contenus multimédias.
Azure Video Indexer est une application qui utilise l’IA pour extraire des données de vidéos et contenus audio : la transcription en speech to text tout d’abord, mais l’outil va également plus loin : détection d’entités nommées, de marques de noms de personnes, analyse du sentiment, traduction de la transcription dans la langue de son choix, reconnaissance faciale, etc.
Il est gratuit à condition de ne pas charger plus de 10 heures de vidéos ou contenus audio. Au-delà, le paiement se fait à la minute. Mais il suffit de supprimer des vidéos/podcasts de sa bibliothèque et ainsi redescendre en dessous des 10 heures de contenus indexés pour continuer à l’utiliser gratuitement.
Déjà abonné ? Connectez-vous...
ArchiRès est le nom d’un réseau de bibliothèques des écoles nationales supérieures d’architecture (ENSA) et du paysage en France, mais également d’instituts en Belgique, au Maroc et au Liban. C’est aussi un portail documentaire du même nom qui donne accès à un catalogue de recherche commun aux différents organismes membres d’Archirès.
Une nouvelle version de ce portail vient de voir le jour le 28 mars dernier.
Nous avons exploré pour vous cette ressource et évalué son intérêt pour la veille et la recherche d’information.
Lire aussi :
Zoom sur les ressources de l’AURG pour l’urbanisme et l’aménagement
Zoom sur le portail de l’INRS sur la santé et sécurité au travail
Zoom sur Cerema Doc, la plateforme documentaire du climat et territoires de demain
Zoom sur le portail documentaire Eau & Biodiversité
Figure 1. Interface d’ArchiRès
Lorsqu’on est peu familier domaine de l’architecture et du paysage, il n’est pas simple d’identifier les bons mots-clés et notamment les termes techniques.
On trouve sur le portail d’ArchiRès un thésaurus très pointu et riche : qui permettra d’identifier les termes les plus appropriés à utiliser.
ArchiRès pourra également jouer un rôle dans une démarche de sourcing thématique pour identifier des ressources spécialisées pertinentes mais aussi des organismes spécialisés.
On y trouvera :
Déjà abonné ? Connectez-vous...
Même bien avant l’invention du Web, il a toujours existé un besoin de sources et outils capables de proposer, d’agréger et de structurer des listes de personnes, d’entreprises, de sources, etc. qualifiées par rapport à une thématique donnée ou un type de contenus. C’est le principe même des annuaires, dont on retrouve les premières traces dès le Moyen-âge.
Et ces annuaires et répertoires, papier d’abord puis numériques (on se souvient de l’annuaire de Yahoo ou de Dmoz) ont toujours été d’une grande utilité pour le veilleur et ont longtemps fait partie de la panoplie de base du professionnel de l’information. Ils constituaient en quelque sorte de riches portails agrégateurs de flux thématiques.
Pourtant, ils se sont fait de plus en plus discrets avec les années, quitte à disparaître pour un grand nombre d’entre eux ou ont simplement été délaissés par les internautes et les professionnels.
Les moteurs de recherche généralistes comme Google, Bing et les autres ne sont pas sans responsabilité dans leur disparition. D’un côté les moteurs eux-mêmes ont tout fait pour marginaliser ces acteurs en limitant leur visibilité dans les résultats de leur propre moteur. Et de l’autre, les internautes ont naturellement choisi la voie de la simplicité et de l’efficacité en choisissant des outils les menant directement à la réponse à leur question plutôt que des outils les conduisant vers des sources pertinentes qu’il faut ensuite explorer et interroger.
Mais le vent pourrait bien être en train de tourner…
Lire aussi :
Comment identifier des sources d’information locales ?
Comment trouver des outils de recherche d’information thématiques ?
L’augmentation constante des contenus sur le Web entraine une évolution des moteurs et réseaux sociaux vers toujours plus de sélection : les algorithmes à l’oeuvre donnent en effet de moins en moins accès à toute la richesse du Web . Résultat : il est aujourd’hui de plus en plus difficile de réussir à identifier une liste ou sélection qualifiée de sources, d’acteurs, d’outils sur une thématique donnée, en passant par les moteurs de recherche ou les réseaux sociaux.
Deux solutions s’offrent alors au professionnel de l’information :
Et ce dernier point ressemble à s’y méprendre à ce que les annuaires ont toujours proposé.
Malgré les apparences, de nombreux annuaires ont en réalité survécu et de nouveaux acteurs ne cessent d’apparaître. Certes, ils n’ont plus ni le nom ni la forme des annuaires que l’on a pu connaître par le passé, mais ils remplissent bien le même rôle.
Dans cet article, nous nous intéresserons donc à ces annuaires classiques et à ceux qui ne disent plus leur nom, à leurs usages actuels pour la veille et la recherche d’information et nous verrons quelles formes ils peuvent revêtir aujourd’hui et comment les identifier.
Déjà abonné ? Connectez-vous...
Dans le contexte actuel, les professionnels de l’information se retrouvent de plus en plus confrontés au besoin de se créer leurs propres outils de recherche thématiques pour ne pouvoir rechercher que sur un corpus restreint de sources qualifiées.
Cela s’explique tout d’abord parce que les moteurs de recherche ne font émerger qu’une sélection de sources par rapport à une question donnée et pas nécessairement les plus qualifiées. Et plus les années passent, plus le nombre de résultats affichés par les moteurs diminue, rendant encore plus difficile la découverte et la visualisation issues de sites peu optimisés pour le référencement.
D’autre part, les outils de recherche professionnels (bases de données, agrégateurs de presse, plateformes de veille), malgré leur très grande valeur, n’ont pas non plus des corpus de sources exhaustifs et n’intègrent pas toutes les sources dont le veilleur peut avoir besoin.
Et c’est sans compter sur le fait qu’on ne peut pas rechercher de la même manière sur tous les types de sources. On ne pourra pas utiliser la même requête pour interroger des sites très spécialisés et des sources beaucoup plus généralistes comme la presse nationale ou les réseaux sociaux : le niveau de ciblage tout comme le champ lexical à employer seront tout simplement différents.
Dans ce contexte, il n’y a pas d’autre choix, en complément des moteurs et outils professionnels, que de réaliser un sourcing précis avec les sources pertinentes en lien avec le secteur ou la thématique qui nous intéresse pour ensuite créer un outil de recherche qui permettra de se focaliser exclusivement sur ces sources qualifiées.
Malheureusement, les solutions permettant de créer ses propres outils de recherche thématiques sont rares, la plus connue étant Google CSE, le service de moteur personnalisable de Google.
Un nouvel acteur vient d’arriver sur ce marché. Il s’agit de Latlas.pro, un acteur français qui propose des moteurs personnalisables privés ou publics. Nous l’avons testé et avons évalué son utilité pour le veilleur et le professionnel de l’information.
Même s’il y a déjà quelques acteurs sur le créneau des moteurs personnalisables, il y a suffisamment de place et il y a même un réel besoin pour de nouveaux venus . Et Latlas.pro arrive à point nommé.
Latlas.pro a été développé par Frédéric Plisson qui n’est pas novice dans le monde des moteurs de recherche et du SEO. Il a notamment été à l’origine de l’annuaire généraliste La Boussole, qui existe depuis 20 ans et existe d’ailleurs toujours aujourd’hui. Le projet a été lancé en 2020.
L’analyse de Frédéric Plisson sur le marché des moteurs aujourd’hui est indéniablement pertinente : il pointe la difficulté pour de nombreux sites spécialisés et thématiques à apparaître sur des moteurs comme Google et le besoin d’outils de recherche thématiques avec des sources thématiques et très spécialisées. De ce point de vue-là, il a très bien analysé les besoins et l’outil qu’il propose et continue de développer est, sur le papier, très prometteur pour le professionnel de l’information.
Déjà abonné ? Connectez-vous...
Si les ressources et sites d’information en France sur le thème de l’autisme sont plutôt nombreux (Autisme Info Service, Comprendre l’autisme, etc.), il était jusqu’à présent difficile de trouver en un seul et même lieu un recensement de ressources documentaires qualifiées et de natures variées (ouvrages, thèses, articles, législation, etc.).
La plupart des sites ont en effet été conçus dans une optique de sensibilisation et d’aide au quotidien pour les personnes concernées par l’autisme, mais aussi pour toutes les personnes amenées à être en contact avec les personnes autistes et leurs proches.
Le lancement d’un nouveau portail documentaire vient donc combler ce manque.
Avec la plateforme documentaire DOC’autisme qui vient d’être mise en ligne, le Groupement national des centres ressources autisme (GNCRA) a pour ambition d’en faire la référence francophone sur les publications et ressources nationales et internationales consacrées aux Troubles du Spectre de l’Autisme.
Lire aussi :
Zoom sur les ressources de l’AURG pour l’urbanisme et l’aménagement
Zoom sur le portail de l’INRS sur la santé et sécurité au travail
Zoom sur Cerema Doc, la plateforme documentaire du climat et territoires de demain
Le site est alimenté quotidiennement par des documentalistes des différents CRA (Centres de ressources Autisme) qui animent depuis de nombreuses années des centres de documentation dédiés à l’autisme à une échelle régionale (on en compte 26, répartis dans toute la France incluant les DOM-TOM).
La grande force de ce portail documentaire réside dans la base de données documentaire qu’il met à disposition et qui regroupe l’ensemble des catalogues des différents centres de documentation des 26 CRA. Cela permet un gain de temps indéniable et évite de devoir interroger les 26 catalogues séparément.
Déjà abonné ? Connectez-vous...
Selon un « mantra » communément trouvé dans la littérature spécialisée, « 80 % de l’information technique trouvée dans les brevets n’est pas présente ailleurs ».
L’information brevet renseigne en premier lieu sur l’évolution des technologies, et sur l’état de l’art, où l’état de la technique dirait un examinateur. Une proportion très importante des documents cités dans les rapports de recherche produits par l’OEB (Office Européen des Brevets) correspond à de la littérature brevet, ce qui souligne l’importance de l’information brevet dans une étude de brevetabilité.
L’INPI (L’Institut National de la Propriété Intellectuelle), au début des années 1980, avait lancé une publication dénommée « Le clignotant des technologies », dont la production était confiée à un service particulier, le RISC, pour « Recherche en Information Stratégique et Concurrentielle ».
Stratégie et concurrence : nous y voilà. En fournissant une visibilité sur l’orientation des axes de R&D des concurrents, l’information brevet constitue une aide à la définition d’une stratégie d’entreprise.
Lire aussi :
OMPI (Organisation Mondiale de la Propriété Intellectuelle) met en ligne des "Patent Landscapes"
Nous avons testé IPRally, l'outil qui veut révolutionner la recherche brevets avec de l'IA
Cet article est consacré à un aspect très spécifique de l’exploitation de l’information brevet, celui qui, au-delà d’une simple évaluation technique, va jusqu’à une analyse permettant d’estimer la valeur d’un titre ou d’un groupe de titres en tant qu’arme économique au service du jeu concurrentiel.
Nous évoquerons quatre outils disponibles sur le marché permettant une telle évaluation.
Enfin, nous verrons comment France Brevets a fait de la détermination de la valeur d’un brevet une étape clé dans sa démarche d’accompagnement à la mise en place d’une stratégie d’entreprise fondée, en particulier, sur les actifs de propriété intellectuelle. Les échanges que nous avons eus avec les experts qui y officient nous ont beaucoup inspiré dans l’appréhension du sujet. Nous donnerons quelques exemples de la mise en œuvre de ces outils dans une telle démarche.
Déjà abonné ? Connectez-vous...
Canada Explore est un portail permettant d’accéder aux résultats de la recherche canadienne (cf. figure 1. Interface de Canada Explore).
Il a été développé grâce à une collaboration entre la Canadian Association of Research Libraries (CARL) et OpenAIRE, ce qui permet aux résultats disponibles sur le portail canadien d’être aussi disponibles sur OpenAIRE.
OpenAIRE, dont nous avons déjà parlé à plusieurs reprises, est un portail créé à l’initiative de la Commission Européenne pour retrouver les références des résultats des recherches financées par la Commission, avec un principe de libre accès.
Lire aussi
La veille au défi de l’information scientifique et technique
Comment bien rechercher l’information scientifique et technique ?
Déjà abonné ? Connectez-vous...
Savoir réaliser des recherches d’image inversée sur le Web est une des compétences des professionnels de l’information. Si cette technique est toujours d’une utilité certaine, elle a quelque peu été malmenée au cours des dernières années. Et aujourd’hui, elle oscille entre une baisse significative de qualité et l’ajout récent de quelques nouveautés et innovations qui ouvrent de nouveaux horizons pour le veilleur.
On rappellera que la recherche d’image inversée est une fonctionnalité, proposée par la plupart des moteurs d’images comme Google Images ou Bing Images, mais aussi par des outils spécialisés comme Tineye par exemple. Elle permet, à partir d’une image (un fichier image ou l’url d’une image), de retrouver des pages et sites qui utilisent cette même image ou des images similaires.
Cette technique permet ainsi de retrouver des contenus que l’on n’aurait pas pu retrouver en effectuant une recherche textuelle par mot-clé classique.
Lire aussi :
Sourcing pour la veille : pensez à utiliser les images!
Outils de recherche d’images : vers la reconnaissance de texte, objet et visage
Les cas où cette technique et ces outils s’avèrent utiles sont nombreux et nous pourrons ici en citer quelques-uns :
Dans cet article, nous explorons les dernières grandes tendances de la recherche d’image inversée pour voir comment cela vient impacter le veilleur dans ses recherches. Nous analysons également les différents outils et méthodes existants aujourd’hui et analysons ce qui fonctionne le mieux.
Déjà abonné ? Connectez-vous...
Nous avions évoqué le rachat de Proquest par Clarivate dans le numéro 392 de BASES (mai 2021) en présentant les deux sociétés et les conséquences possibles de cette acquisition.
Clarivate a annoncé le bouclage de l’opération, qui a été légèrement retardée.
Nous attendons maintenant l’annonce des changements qui ne manqueront pas de se produire.
Lire aussi :
L’acquisition de Proquest par Clarivate ne paraît pas si simple
Le rachat de Proquest par Clarivate : quelles conséquences pour le monde de l’information ?