Les archives ouvertes ont été créées pour améliorer la visibilité des articles académiques et en faciliter l’accès. Elles s’inscrivent dans les idéaux de la science ouverte promouvant la transparence et l’accessibilité.
Ils sont partis d’une liste de 24 430 articles publiés entre 2013 et 2023 ayant fait l’objet d’une rétractation ou d’une correction. Ils les ont identifiés en cherchant tous les articles dont il est fait mention dans Retractation Watch ayant un DOI (Digital Object Identifier) mais pas nécessairement en open access.
Sur les 24 430 articles, ils en ont trouvé 7 560 ayant au moins une présence dans une des 369 archives ouvertes qu’explorées grâce à Unpaywall.
Afin de pouvoir effectuer une évaluation manuelle, faute d’outils pour le faire automatiquement, ils ont choisi HAL l’archive ouverte gérée par le CCSD (Centre pour la Communication Scientifique Directe) sous la triple tutelle du CNRS, de l’INRIA et de l’INRAE. C’est, en taille, le deuxième après un site de la NASA.
Le résultat est brutal.
En effet, sur les 141 articles identifiés dans HAL, 128, soit 91%, n’ont fait aucune mention d’une rétractation ou d’une correction.
Référence de l’article :
Bordignon, F. (2025), Moving Open Repositories out of the Blind Spot of Initiatives to Correct the Scholarly Record. Learned Publishing, 38: e1655.
SAGE annonce avoir adopté l’outil Dimensions Author Check qui permet une vérification de l’intégrité de la recherche qu’il publie. Cet outil examine les historiques de publications des auteurs et leurs réseaux afin de repérer toute activité inhabituelle comme les rétractations.
Il vérifie aussi s’il existe d’éventuelles collaborations avec des « paper mills (« moulins à papier ») ainsi que l’existence dans les articles de phrases « torturées ».
Ces phrases torturées ont pour objectif de tromper les logiciels anti-plagiat.
Par exemple, en français, une insuffisance rénale devient ainsi une déception du rein (ou rénale), l’intelligence artificielle une conscience contrefaite ou, enfin, un acide nucléique un corrosif nucléique.
L’IA étant devenue incontournable, la plupart des serveurs et agrégateurs de presse développent de nouveaux outils ou de nouvelles interfaces intégrant ces développements technologiques.
Les équipes de Questel sont persuadées que l’IA va profondément bouleverser les opérations liées à la propriété intellectuelle, aussi bien pour la recherche, que la visualisation des résultats puis de leur analyse, le classement des résultats et plus généralement pour optimiser les workflows complexes de ce domaine.
Nous avons déjà présenté dans ces colonnes SCOPUS AI et Web of Science Research Assistant (BASES, Nos 425 et 428). Nous explorons aujourd’hui les améliorations apportées par Questel à Orbit Intelligence par l’utilisation de ChatGPT tant pour la recherche que pour la visualisation des réponses.
Nous avions décrit dans la rubrique IA du dernier numéro de BASES comment utiliser la nouvelle fonctionnalité « styles rédactionnels » de Claude, dont la promesse est de produire un texte avec le « bon style de rédaction ».
Cette fonctionnalité est intéressante en soi, car elle nous emmène déjà au-delà de la « simple » génération de contenus, vers la création de textes toujours plus personnalisables, de qualité comparable à ceux que l’on produit manuellement et même, pourrait-on dire, « humanisés ».
Claude fait d’une certaine façon « coup double » avec cette fonctionnalité des styles personnalisés : elle concerne à la fois la rédaction d’un texte en imitant un auteur humain donné et l’adaptation du message au type de public cible.
Ryan, qui a rejoint notre équipe de rédaction, est « Research librarian » à l’Université Wesleyan du Tennessee aux États-Unis. Cette fonction de « bibliothécaire spécialisé en recherche », située à l’intersection de la documentation et du soutien à la recherche académique joue un rôle très important dans la diffusion des connaissances et le développement des compétences en recherche au sein de l’université.
Les contributions de Ryan sont traduites de l’anglais par notre équipe.
Plus d’un an s’est écoulé depuis que l’intelligence artificielle (IA) s’est largement répandue, modifiant, en particulier, radicalement les processus de prise de décision, les modes d’écriture, de pensée et d’analyse des modèles, entre autres. Depuis la sortie de logiciels tels que ChatGPT, l’utilisation de l’IA et ses applications ont été vivement débattues et discutées. Qu’il s’agisse de l’application de la loi, des soins de santé, de l’éducation ou des ressources humaines, l’utilisation (et dans certains cas, l’abus) de l’IA a suscité l’émoi de nombreux professionnels intéressés par ces questions. Dans mon propre domaine, celui des sciences de l’information, les publications d’articles, les ateliers numériques et les autres occasions d’apprendre, d’expérimenter et de discuter de cette technologie émergente et passionnante ne cessent de se multiplier.
L'utilisation d'un ordinateur personnel est aujourd'hui une évidence. Il n'est plus nécessaire d'être un expert pour s'en servir, d'autant plus que ces appareils peuvent désormais prendre la forme d'un téléphone.
En fait, c’est dans l’État du New Hampshire aux États-Unis, précisément au Dartmouth College, le vrai nom de l’« Université de Dartmouth » tel qu’on le voit écrit dans la presse, que ce concept s’est matérialisé pour la première fois en 1964. Le Dartmouth College appartient à la Ivy Ligue qui rassemble huit universités prestigieuses du nord-est des États-Unis.
Ce concept fut l’aboutissement de la démarche de deux enseignants en mathématique dans cette université, John Kemeny et Thomas Kurz.
Ce dernier vient de décéder à l’âge de 96 ans, ce qui explique que ce sujet revienne dans l’actualité.
Dans un texte récent « Mesures et démesures de la publication scientifique », le mouvement « Ouvrir la science » attire l’attention sur l’augmentation très rapide , voire exponentielle, du nombre d’articles scientifiques publiés. Elle considère qu’elle n’est plus compatible avec le maintien de la qualité scientifique et la confiance dans les résultats obtenus par le minutieux travail de la relecture par les pairs.
Si les éditeurs « classiques » augmentent leur catalogue dans des proportions « raisonnables », ce billet cite trois éditeurs qui sont Frontiers, MDPI et Hindawi en remarquant la très forte croissance du nombre d’articles qu’ils publient. Cette forte croissance est liée, en particulier, à la publication de numéros spéciaux, notamment en 2022.
Retractation Watch signale, pour sa part, que Hindawi a retracté plus de 8 000 articles rien que pour l'année 2022, ce qui semble constituer un record. Wiley qui avait racheté cet éditeur en 2021 a décidé de ne plus utiliser la marque Hindawi et de ne garder que les quelques revues « irréprochables » de cet éditeur.
Le dernier trimestre 2024 marque un tournant décisif dans l’évolution de nos métiers. L’émergence d’outils autonomes au potentiel disruptif met au défi de l’adaptation les pratiques éprouvées des professionnels de l’information et leur rôle d’intermédiation.
Ce numéro de NETSOURCES explore cette nouvelle étape à travers trois regards complémentaires.
Véronique Mesguich analyse comment OpenAI ne se contente pas de concurrencer Google avec SearchGPT, mais revisite l’expérience de recherche d’information (« SearchGPT vs Google AI vs Copilot : la bataille des géants pour réinventer la recherche web »).
Cette génération d’outils, avec sa puissance de synthèse et la génération contextuelle de contenus, remet en question notre rapport même aux sources. En proposant des synthèses dont la traçabilité échappe souvent à notre contrôle, elle fragilise davantage la notion de référence aux sources, pilier de la recherche professionnelle déjà ébranlé par l’écosystème Internet. C’est la fiabilité même du travail informationnel qui est en jeu, au-delà des impacts sur le modèle économique des moteurs traditionnels et du système de référencement commercial.
Le décryptage que fait Ulysse Rajim sur l’avènement des agents IA révèle une autre dimension de cette transformation (« Repenser la veille à l’ère des agents IA »). Ces systèmes semi-autonomes, capables de planifier et d’exécuter des séquences d’actions complexes, préfigurent l’avenir de nos outils professionnels. Leur capacité à combiner planification et exécution, même à un niveau d’autonomie encore modéré, annonce une transformation de nos méthodes de travail.
Enfin, les retours d’expérience du Forum de l’IES, analysés par Corinne Dupin, apportent un éclairage précieux sur ces évolutions. Les enseignements qui en émergent - de la contextualisation des demandes au contrôle continu des résultats — dessinent les contours d’une utilisation raisonnée de l’IAG et d’une nouvelle maturité dans notre approche des IAG (« Quand la vitesse et la puissance de calcul des IAG dépassent l’humain et invitent à réévaluer les pratiques de veille et d’intelligence économique »).
Ces trois analyses convergent vers un constat commun : l’accélération technologique nous ramène paradoxalement aux fondamentaux de nos métiers. Le sens critique, la rigueur méthodologique et l’intelligence collective deviennent plus essentiels que jamais.
Annoncé l’été dernier par OpenAI sous forme de prototype, le moteur de recherche SearchGPT a été lancé en novembre pour les utilisateurs de la version premium et est depuis le 17 décembre accessible gratuitement à tous.
Au-delà d’un moteur de recherche classique, SearchGPT allie les capacités de génération de texte et de recherche contextuelle du modèle de langage d’OpenAI pour offrir une nouvelle expérience de la recherche d’informations.
OpenAI renforce ainsi sa concurrence directe non seulement avec des services de recherche basés sur l’IA comme Perplexity ou You.com, mais aussi avec les géants du Search en ligne que sont les moteurs Google ou Microsoft Bing Copilot. Doit-on en attendre une transformation radicale du paysage des outils de recherche ? Ou bien s’agit-il d’une tentative de la part d’OpenAI destinée à capter une part du marché lucratif de la recherche web, en « disruptant » le modèle économique ?
2024 marque un tournant dans l’histoire de l’intelligence artificielle : après les chatbots et les copilotes, une nouvelle génération d’outils fait son apparition - les agents IA. De Microsoft à Salesforce, en passant par Google et Anthropic, les géants de la tech investissent massivement dans ces systèmes capables de planifier et d’exécuter des séquences d’actions complexes. Dans cet article, nous explorerons ce nouveau développement dans le paysage de l’IA et ses impacts sur le métier de la veille.
En 2023, après la sortie de ChatGPT quelques mois plus tôt, les chatbots s’imposaient comme la technologie phare de l’année. De Bing Chat à Claude, en passant par Gemini, les agents conversationnels étaient au centre de l’attention.
En 2024, ce sont les assistants IA (aussi appelés « copilotes ») qui font leur apparition, en s’inspirant de la fonctionnalité Github Copilot, elle-même mise à disposition du grand public en juin 2022. Plusieurs copilotes sont alors annoncés : Microsoft 365 Copilot, EinsteinGPT (Salesforce), Joule (SAP) ou encore Gemini (Google), pour en citer quelques-uns.