Une deuxième évolution concerne le développement de nouvelles formes de publication multimédia, notamment dans le domaine audio. Ce sont bien sûr les podcasts, mais aussi l’essor du « social audio », c’est-à-dire des espaces de discussion proposés par les réseaux sociaux généralistes ou de nouveaux entrants comme ClubHouse. Se pose alors la question de l’indexation de ces contenus, de leur éventuelle retranscription en « speech to text » pour permettre une recherche dans ces ensembles.
Enfin, dans le domaine des solutions de veille, je constate l’apparition de fonctionnalités innovantes dans le domaine de l’analyse automatisée et de la datavisualisation : par exemple, via des tableaux de bord dynamiques ou des représentations graphiques des relations entre acteurs, parties prenantes…
Comment la place de Google évolue-t-elle globalement dans le contexte de tous ces changements ?
Google reste le leader incontesté dans le domaine de la recherche d’informations, sa position très largement dominante lui permet de dicter les changements. Nous venons d’évoquer les modifications dans l’affichage des pages de résultats. Certains usages initiés par Google n’atteignent pas toujours les résultats escomptés : c’est le cas par exemple des enceintes connectées et de la recherche vocale.
Mais dans de nombreux domaines Google impose le tempo : cela a été le cas il y a quelques années avec les formats AMP, et désormais avec les nouvelles métriques Core Web Vitals, destinées à évaluer la qualité de l’expérience utilisateur (UX).
On peut citer dans le registre de la publicité digitale le projet de suppression des cookies tiers dans Chrome.
Google a été également au cœur de la négociation, avec les éditeurs de presse, à propos de la rémunération des droits voisins. Un accord spécifique vient d’être signé entre l’AFP et Google dans ce domaine, c’est déjà un premier terrain d’entente.
On a quand même l’impression qu’on s’est bien éloigné de la mission initiale « d’accès universel à la connaissance » de Google, rappelée au premier chapitre ?
C’est assez paradoxal : à la fois Google veut devenir une sorte de « bibliothécaire universel », avec sa stratégie de moteur de réponses capable d’extraire automatiquement dans les pages web les éléments qu’il estime les plus pertinents. Mais en même temps, l’effet pervers de tout cela, c’est de mettre en avant des sites plutôt grand public et commerciaux, au détriment de contenus davantage liés à la connaissance et au savoir.
Il y a un vrai travail d’éducation à mener auprès des jeunes (et moins jeunes) en complément de l’éducation aux médias et à l’information : il ne s’agit pas de diaboliser Google ou Wikipédia, mais de répandre de bonnes pratiques.
Concernant Google, cela peut passer par des explicitations de son fonctionnement et de ses algorithmes, ou par une incitation à utiliser des méthodes agiles, basées sur la sérendipité et les rebonds (plutôt que les recherches booléennes qui sont de moins en moins efficaces sur Google Web). Un vrai enjeu pour les professionnels de l’information…
Quels sont les domaines et espaces d’innovation en dehors de Google ?
Google, de son propre aveu, a manqué dans les années 2010 le virage vers les réseaux sociaux. GooglePlus, arrivé trop tard et n’apportant pas de valeur ajoutée, a été désactivé en 2019.
Pour moi, il y a une grande créativité et des expérimentations intéressantes dans les réseaux sociaux « nouvelle génération », ou de nouveaux usages autour de plateformes dédiées par exemple au jeu vidéo comme Twitch, qui pourraient devenir de nouveaux débouchés pour les médias d’information.
Et bien sûr, il y a toutes ces annonces récentes autour des futurs « metaverses » ou univers immersifs, qui vont apporter de nouvelles formes de publications et d’interactions… et suscitent déjà des controverses et interrogations.
Comment faut-il regarder le monde de la veille aujourd’hui ? Est-ce que les évolutions dans les pratiques et outils des organisations amènent à segmenter différemment le marché, les différents types de veilles, d’outils ?
Pendant longtemps le marché des outils de veille était beaucoup centré autour de la collecte automatisée. Depuis quelques années la plupart des solutions se sont dotées de fonctionnalités d’analyse (à travers la datavisualisation, les tableaux de bord…) ou de partage collaboratif. De nouveaux territoires sont à conquérir, dans le domaine de l’OSINT, mais aussi de l’IMINT ou du GEOINT. Les contenus textuels ou multimédias classiques à collecter et analyser peuvent être complétés par des éléments issus de messageries instantanées, d’images satellites…
De façon plus générale, le travail collaboratif, accompagné d’une production et d’une diffusion de l’information moins verticale dans l’entreprise, a également un impact dans la pratique de la veille.
Enfin, la veille peut également s’exercer sous forme de recherche ponctuelle approfondie : dans le cadre de la due diligence, il va s’agir d’effectuer des recherches afin de répondre aux obligations de vigilance autour des relations d’affaires.
En parlant des changements dans le monde de l’information, que penser de l’impact des nouveaux business models qui portent atteinte à la qualité des sources comme ceux de Reworld par exemple ?
Je cite effectivement dans l’ouvrage l’exemple de Science et Vie (groupe Reworld) dont la rédaction démissionnait en début d’année, en raison de désaccords avec le nouveau propriétaire du titre. L’un des points de désaccord était la question de l’alimentation du site, dont les rédacteurs s’estimaient dépossédés au profit de « chargés de contenus » à la vocation plus marketing qu’éditoriale.
Mais à propos des nouveaux business models on pourrait également citer dans le monde académique le phénomène des revues dites « prédatrices » peu regardantes parfois sur la qualité des articles qu’elles publient.
Certains business models portent également involontairement atteinte à la qualité de sources : par exemple, il a été prouvé que de nombreux sites véhiculant des fake news, et notamment des sites conspirationnistes, reçoivent parfois un apport financier considérable venant de la publicité en ligne.
La désinformation est-elle réellement un sujet pour les professionnels de l’information en entreprise qui généralement accordent une grande importance à la qualification des sources en amont ?
On parle beaucoup de désinformation dans la sphère grand public. Mais l’information professionnelle est également impactée, pas seulement par la désinformation, mais aussi par la mésinformation : une information de mauvaise qualité, sans intérêt ni valeur ajoutée, souvent redondante, et qui fait perdre du temps. Et aussi les phénomènes de biais cognitifs (biais de confirmation, d’ancrage mental…) qui peuvent influencer notre analyse de la réalité et conduire les dirigeants d’entreprise à prendre des décisions inadaptées.
Concernant la qualification des sources en amont, cela reste toujours primordial : mais tout dépend de ce que l’on entend par « qualification ».
En veille stratégique, les informations de rupture et les signaux faibles se trouvent parfois dans le « bruit » documentaire, et dans des sources parfois considérées comme peu sûres ou difficiles à qualifier.
Les veilleurs sont désormais amenés à prendre en compte des documents et données issues d’investigations comme celles menées par l’ICIJ (International Consortium of Investigative Journalists). Ce collectif est à l’origine des Pandora Papers, Panama Papers ou LuxLeaks. Citons également Forbidden Stories, qui a enquêté sur le scandale du logiciel espion Pegasus.
Outre la désinformation, il y a un vrai sujet en entreprise autour de la protection du patrimoine informationnel. En 2018, la loi relative à la protection du secret des affaires a apporté de nouvelles dispositions. Il y a de nouveaux enjeux aujourd’hui autour, par exemple, des lanceurs d’alertes, et plus généralement de l’équilibre entre protection et liberté d’expression.
« Rechercher l’information stratégique sur le web » semble montrer que la veille et la recherche d’information restent un univers très technique finalement ?
Oui, il y a une dimension très technique que l’on trouve par exemple dans la connaissance de l’architecture du web, la maîtrise des solutions de datavisualisation ou encore du paramétrage de flux.
Mais pour moi les compétences d’un professionnel de la recherche passent aussi (et ce n’est pas toujours simple à enseigner…) par l’intelligence des contenus : c’est-à-dire savoir identifier des sources adaptées (y compris des sources considérées a priori comme peu fiables, mais susceptibles de fournir des signaux faibles) ; mais aussi être capable d’en extraire rapidement et aisément des éléments d’aide à la décision.
Ce n’est pas forcément évident de trouver ces compétences réunies en une seule et même personne. C’est ce que j’essaie de développer dans les établissements où j’enseigne, comme par exemple l’EEIE ou l’EBD.
On voit arriver des espaces ouverts comme Github ou Discord, qui introduisent des outils assez différents de ceux auxquels on était habitué et qui demandent des compétences informatiques assez solides. Ce sont des espaces réservés au « veilleur fauché, mais motivé » ?
Je pense que l’usage de Github, et plus généralement de l’OSINT peut intéresser également le veilleur « fortuné », en même temps un peu geek, qui peut y trouver ponctuellement des compléments aux plateformes de veille du marché.
Là encore, il faut être à l’aise dans des terrains extrêmement divers, et se confronter à la fois à la rigueur et l’organisation du monde des bases de données, tout autant qu’à la souplesse et au caractère parfois éphémère des outils que l’on peut trouver sur des plateformes comme Github.
Je reprends souvent dans mes cours la distinction qu’effectuait Claude Levi Strauss entre l’« ingénieur » et le « bricoleur » : pour moi, Github est emblématique du bricolage (au sens noble du terme !), mais ne s’oppose pas à la posture de l’ingénieur capable de créer des systèmes plus pérennes et structurés.
L’OSINT est-elle réellement un nouveau champ d’expertise dans lequel les professionnels peuvent se développer ?
L’OSINT est utilisée depuis de nombreuses années dans le monde du renseignement, et le monde militaire. Aujourd’hui, c’est devenu un terme à la mode et de ce fait parfois un peu à géométrie variable.
La notion de renseignement de sources ouvertes peut recouvrir un périmètre très large, incluant des sources classiques comme les médias traditionnels ou les bases de données de renseignement financier.
Mais la pratique de l’OSINT s’est surtout développée avec l’apparition au milieu des années 2000 des « User generated contents », contenus générés par les utilisateurs notamment sur les réseaux sociaux. Auxquels on peut rajouter de nouvelles sources apparues plus récemment comme les messageries instantanées.
En fait, la pratique de l’OSINT repose surtout sur des analyses et investigations destinées à vérifier la véracité des informations (qui rejoignent de nouvelles pratiques journalistiques), et à faire émerger des informations « cachées » ou sensibles.
Pour les professionnels de la veille, cela représente de nouveaux champs d’investigation, mettant en œuvre de nouvelles compétences en scraping et extraction de données.
Les méthodes d’OSINT peuvent parfois reposer sur des pratiques déjà existantes, en les réinventant dans d’autres contextes. Les « Google Dorks » sont un bon exemple d’application de la recherche avancée de Google pour trouver des données sensibles ou des failles de sécurité.
« Rechercher l’information stratégique sur le web » montre bien l’enjeu stratégique du développement de la littéracie numérique. La fracture numérique qui y est évoquée concerne-t-elle aussi les entreprises privées et organisations publiques ?
Effectivement, on parle surtout de la fracture numérique à propos des personnes ou des territoires. Mais cet « illectronisme » frappe également les entreprises, et pas seulement des PME dans des secteurs traditionnels. Cela peut être le cas également dans certains organismes publics, avec des réalités et des cultures du numérique très différentes d’un établissement à l’autre.
La crise sanitaire aura sans doute comme avantage d’accélérer la transformation digitale dans des entreprises ou organisations qui ne se sentaient pas concernées. Il y a aussi un effet générationnel qui va jouer : mais attention, les jeunes digital natives ne possèdent pas forcément la littéracie numérique qui leur permettrait de maîtriser de façon adaptée les ressources informationnelles du web.
Il y a là encore un enjeu de formation et d’accompagnement.
L’IA continue à progresser dans nos outils. Finalement, il est très intéressant pour le professionnel de l’information de bénéficier de cette « autre intelligence », et de la considérer comme complémentaire. Elle apporte des possibilités énormes pour la recherche d’information, ou pour l’analyse et la valorisation de la donnée, l’enrichissement des livrables de veille ?
Ce débat concernant la complémentarité entre l’intelligence artificielle et l’intelligence humaine touche de nombreux secteurs liés à la médiation : le journalisme, le marketing… On met souvent en avant, pour défendre la valeur ajoutée de l’humain, ses qualités d’empathie, d’intelligence émotionnelle… au point que cet argument est devenu un peu un cliché.
Je cite dans l’ouvrage une jolie formule de Christian Fauré, directeur scientifique chez Octo Technologies, qui résume bien la complémentarité entre intelligence artificielle et intelligence humaine : « Notre humanité réside justement dans l’incalculable ».
Plus précisément, l’IA apporte de nombreuses transformations dans nos métiers : les moteurs de recherche l’utilisent pour mieux « comprendre » le sens des requêtes (et pas toujours de façon optimale…), les solutions de veille automatisée mettent en œuvre des techniques de classification automatique ou de cartographies de liens pour aider à la prise de décision. Les livrables peuvent être générés automatiquement en mettant en œuvre l’IA, non seulement via les solutions payantes de veille, mais aussi via des solutions plus destinées au grand public comme « le petit robot jaune » Flint. L’IA est aussi utilisée dans le domaine multimédia pour la reconnaissance d’images par exemple.
Mais là encore, attention au caractère parfois flou de cette notion d’IA qui peut générer des confusions. C’est ce que présente Luc Julia dans son ouvrage au titre un peu provocateur « L’intelligence artificielle n’existe pas ». Luc Julia distingue la « reconnaissance » rendue possible aujourd’hui par le deep learning de la connaissance humaine qui reste le fruit de l’expérience. Nous n’en sommes qu’aux balbutiements d’une vraie intelligence artificielle qui ne peut se résumer à des actions automatisées.
On a tendance parfois à trop penser l’enjeu de développement des pros de l’info comme un défi purement technique, une condition sine qua non pour conserver son employabilité ?
Cela me paraît en effet un peu réducteur de définir les enjeux des métiers de l’information comme purement techniques. C’est ignorer non seulement la maîtrise des contenus que nous évoquions plus haut, mais aussi la dimension très relationnelle du métier qui se traduit de plusieurs façons : le recueil des besoins, le partage et les échanges collaboratifs, l’élaboration de livrables adaptés…
Tout cela met en œuvre des soft skills complémentaires de l’expertise technique et de la connaissance numérique.
Bien entendu, comme dans tout secteur, il est important pour l’employabilité des professionnels de l’information de suivre l’évolution des techniques, des méthodes et des solutions. Et ce d’autant plus qu’il existe de nombreuses façons de le faire, à travers les publications classiques, mais aussi les salons professionnels, les instances, les réseaux sociaux…
Mais cette « veille sur la veille » ne suffit pas : il s’agit ensuite de transformer ces connaissances techniques en compétences actionnables et adaptées.
Rechercher l’information stratégique sur le web. Sourcing, veille et analyse à l’heure de la révolution numérique. Véronique Mesguich, préf. d’Anne-Marie Libmann, 2ème éd., Bruxelles : De Boeck Supérieur ; Paris : ADBS, 2021 (Information et stratégie).