Fraudes et plagiats dans la recherche scientifique

François Libmann
Bases no
329
publié en
2015.09
820
Acheter ce no
Tags
propriété intellectuelle | information scientifique et technique
Fraudes et plagiats dans la recherche scientifique Image 1

Depuis fort longtemps, un article scientifique publié était considéré comme une sorte de vérité révélée qu’il était indécent et malvenu de critiquer.

Le médecin chercheur Philippe Froguel rappelle dans un excellent article1 que, dans les années 1990, ayant remarqué au cours de l’expertise d’un article qu’il effectuait pour « Nature Genetics », et dont il a contesté l’un des résultats, le jugeant « impossible », ce fut lui et non pas le tricheur auteur de l’article qui fut sommé de s’expliquer.

Depuis les choses ont - heureusement - évolué et ce médecin chercheur signale qu’en 2006, et tout récemment encore, le gouvernement américain a mis en prison des fraudeurs qui avaient obtenu de manière indue des financements d’agences fédérales.

Les choses ont donc fortement changé et aujourd’hui les documents n’étant pas parfaitement éthiques sont de moins en moins acceptables et acceptés.

On peut aujourd’hui distinguer plusieurs cas de figure pour des articles considérés comme douteux et qui conduisent de plus en plus, si le doute est justifié, à une « rétractation » de l’article.

Le plagiat, apparu avec le développement des publications, scientifiques ou non

Pendant longtemps, le plagiat était relativement ignoré ou toléré et on en parlait peu.

Détecter un plagiat était - un peu - laborieux mais pas impossible pour autant, comme des affaires récentes l’ont montré, par exemple sur des thèses allemandes assez anciennes. Mais, depuis le développement de l’informatique, c’est presque devenu un jeu d’enfant.

L’évolution des mentalités ayant fait que les plagiats sont devenus incorrects et condamnables, des «contre mesures» ont été développées, en clair des logiciels capables de déceler relativement facilement les plagiats. Cela n’exclut pas que, indépendamment de tout logiciel, des spécialistes d’un sujet détectent dans un document des ressemblances troublantes et creusent la question pour mettre à jour un plagiat.

Parmi les logiciels de détection de plagiat, on peut citer Compilatio développé en partenariat avec l'Université de Savoie, et utilisé depuis une dizaine d’années par des établissements d’enseignement français, suisses, italiens, espagnols, allemands ou québécois dans tous les domaines.

Récemment, durant l’été 2015, Compilatio a créé un nouveau module logiciel qui vérifie automatiquement la présence de chaque mot dans un dictionnaire multi-langue.

Cela permet de contrer la technique du masquage du copier-coller consistant à insérer des caractères blancs entre les mots.

Jusqu’à présent et, sauf erreur, ces logiciels détectaient des plagiats dans une même langue, mais un laboratoire de l'Université de Grenoble est en train de mettre au point un logiciel détectant les plagiats dans une autre langue.

La création de « faux » articles avec de vrais auteurs et leurs affiliations

Ces « faux » articles ont tout à fait l’apparence de « vrais » articles respectant tous les codes des publications scientifiques sauf… qu’ils ne veulent rien dire si l’on creuse un peu le contenu.

Ces « faux » articles peuvent être crées par des logiciels spécialisés tels que SCIgen, Mathgen ou Phygen.

La « contre-mesure » a été mise au point récemment par l’Unité Joseph Fourier de l’Université de Grenoble en association avec l’éditeur Springer-Verlag GmbH. Il s’agit du logiciel Open source SCIDetect qui est capable de détecter si un article a été écrit en utilisant les logiciels cités plus haut.

La fraude au « peer review »

Traditionnellement, les revues les plus cotées ont un comité de lecture et les articles proposés pour publication font l’objet d’une relecture critique par des scientifiques supposés connaître suffisamment le sujet pour émettre un avis critique.

Si les critiques sont trop négatives, l’article n’est pas publié, sauf corrections considérées comme satisfaisantes apportées par l’auteur.

Il est d’un usage assez fréquent que les auteurs suggèrent des reviewers, en plus des reviewers déjà connus de l’éditeur.

La difficulté est que, sur des sujets très pointus, il n’existe pas nécessairement beaucoup de spécialistes capables de donner un avis éclairé. De plus, pour un article très complexe, se pose la question du temps que pourra consacrer le reviewer à éplucher l’article.

Cela a laissé la porte ouverte à une série de fraudes aux « reviews ».

Un exemple de système frauduleux est la création d’un cluster d’auteurs qui font des reviews, évidemment positives, sur les articles des autres membres du cluster qui leur sont soumis.

Par ailleurs, les auteurs peuvent être assez créatifs dans la fraude. Par exemple la boîte mail du reviewer suggéré par un des auteurs peut être en fait contrôlée par ce même auteur. Dans un autre cas, le reviewer était en fait l’auteur mais … sous son nom de jeune fille.

On a vu aussi un auteur maladroit se faisant passer pour un reviewer, qui a envoyé sa review 24h après avoir reçu l’article. L’éditeur s’en est étonné à juste titre.

Il existe aussi des officines, en Chine, qui offrent «clé en main» la rédaction de l’article, les noms de reviewers et leur reviews.

Cela s’expliquerait par la pression particulièrement forte en Chine pour publier dans des revues occidentales renommées.

D’autres systèmes plus ou mois sophistiqués existent dont certains ont été percés à jour par les éditeurs, parfois après des enquêtes poussées.

Les éditeurs sont prévenus et attentifs mais est-ce 100 % efficace ? C’est difficile à dire, car, comme dans d’autres domaines, les fraudeurs débordent de créativité pour imaginer de nouveaux mécanismes de fraude.

Le 18 août dernier, l’éditeur Springer a rétracté 64 articles de 10 revues pour des pratiques frauduleuses du peer review, sans préciser en quoi consistaient ces pratiques. A la suite de cela, certaines revues ont arrêté de demander aux auteurs des suggestions de reviewers dans la mesure où le système basé sur la confiance comporte des failles.

Par ailleurs, BioMed Central, qui appartient à Springer, a rétracté en mars dernier 43 articles pour des raisons analogues.

Ces fraudes sont sans doute parmi les plus faciles à réaliser et à détecter.

Cependant, pour relativiser le phénomène, William Curtis, Executive vice-president for publishing, medicine and biomedicine chez Springer, a précisé le 25 août dernier dans le Wall Street Journal que les articles rétractés, quelle qu’en soit la raison ne représentaient que 0,05% des articles d’origine chinoise à avoir été soumis à Springer l’an dernier.

Nous citons ici Springer parce que l’éditeur communique sur le sujet et s’est associé à l’université de Grenoble pour la création du logiciel SCIDETECT mais ce n’est clairement pas le seul éditeur à être concerné.

A titre d’exemple, IEEE qui a aussi une bonne réputation a rétracté plus de … 1 000 abstracts de la conférence International Conference on E-Business and E-Goverment (ICEE) qui a eu lieu en mai 2011 à Shangaï.

Le commentaire lié à chacune des ces rétractations était le suivant : “After careful and considered review of the content of this paper by a duly constituted expert committee, this paper has been found to be in violation of IEEE’s Publication Principles”.

On notera qu’il y avait en tout 2 300 abstracts pour cette conférence mais on ne connaît pas la raison exacte de la rétractation. IEEE précise simplement qu’il travaille chaque année avec 400 000 auteurs du monde entier et qu’il a, bien sûr, mis en place un contrôle qualité rigoureux.

Le plagiat ou la fraude aux reviews représentent une grande partie des causes de rétractation.

Il existe une autre grande catégorie qui porte sur le contenu même de l’article, sans, qu’il s’agisse pour autant de plagiat. Il s’agit des manipulations de données plus ou moins graves ou d’un sérieux manque de rigueur dans leur interprétation.

Ces fraudes sont moins faciles à détecter mais existent depuis longtemps et il y a même des «spécialistes» qui ont été amenés à rétracter plusieurs dizaines d’articles et qui à la suite de cela ont perdu leur poste et ont vu leur carrière sérieusement compromise.

Le site PubPeer

Certaines de ces fraudes sont repérées par les reviewers avant publication, mais certaines passent au travers des mailles du filet.

Il existe aussi des publications qui ne sont pas soumises à un comité de lecture. Il y avait donc là une sorte de manque qui a été comblé en 2012 avec la création du site PubPeer qui accueille de façon anonyme les allégations de «mauvaise conduite» (misconduct) concernant des articles déjà publiés.

La raison de l’anonymat est lié au fait que généralement, les spécialistes d’un sujet se connaissent, travaillent même parfois dans la même institution et qu’il leur est donc extrêmement difficile de critiquer à visage découvert une personne avec laquelle ils sont en relation et qui peut même être un supérieur hiérarchique.

PubPeer permet donc de libérer la parole.

Depuis sa création, le site a reçu plus de 35 000 commentaires critiques sachant qu’il est tout à fait possible de critiquer et de commenter les commentaires. Plusieurs centaines de milliers de pages sont vues chaque mois.

Les créateurs du site sont restés longtemps anonymes par crainte de possibles «représailles» pouvant être constituées par des critiques sévères et injustifiées de leurs propres publications.

D’ailleurs, pour éviter les risques de fausses rumeurs les opérateurs du site exigent que les commentaires soient basés sur des faits publiquement vérifiables.

Resté longtemps anonyme, le créateur de PubPeer a fait très récemment son « coming out » ce qui lui a valu un grand article dans Le Monde2 qui décidément s’intéresse à ces questions.

Il s’agit de Brandon Stell, américain d’origine, qui travaille aujourd’hui en France au CNRS.

Attiré par la qualité des publications scientifiques françaises, il est venu en France et sa compagne - française et non chercheuse - l’a convaincu d’y rester.

Son intérêt pour le «décorticage» des articles est ancien puisqu’à 20 ans, il fréquentait un club de journaux où étaient décortiqués des articles scientifiques.

Compte tenu du succès et du développement de PubPeer, Brandon Stell et ses proches collaborateurs on décidé de créer une fondation permettant de lever des fonds et d’assurer l’avenir, mais pour cela, il lui fallait sortir de l’anonymat. Ce qui, aujourd’hui que le site est bien établi, semble bien moins risqué que ce qu’il pouvait craindre au moment du lancement.

Pour illustrer le « pouvoir » de PubPeer, on donnera deux exemples :

La mise en cause des articles cosignés par un chercheur très connu en biologie végétale, Directeur de Recherche et médaille d’argent du CNRS a conduit cet organisme à diligenter une enquête qui a débouché sur une sanction très sévère «considérant qu’il s’agissait de mauvaises pratiques constituant des manquements graves au principe d’intégrité en recherche scientifique». Le chercheur a été suspendu pour deux ans, ce qui l’empêchera vraisemblablement de revenir à son poste à l’issue de son détachement dans un laboratoire suisse.

A l’origine, 40 de ses articles publiés ces 15 dernières années ont été critiqués sur PubPeer pour différentes raisons telles que :

  • graphiques un peu trop beaux pour être exacts
  • graphiques conduisant à faire dire différentes choses aux mêmes figures
  • données expérimentales que d’autres équipes n’arrivaient pas à reproduire.

Un autre exemple est américain. Un chercheur de l’Université de Wayne State devait prendre un poste à l’Université du Mississipi.

Hélas pour lui, seulement onze jours avant la date sa prise de poste, les responsables de l’Université, après avoir reçu une série de mails anonymes contenant des posts de PubPeer centrés sur les travaux de son équipe, lui ont fait savoir qu’il n’était plus le bienvenu, compte-tenu de ces allégations exprimées dans un espace public.

Encore hélas pour lui, il avait déjà vendu sa maison et la Wayne State University ne souhaitait pas le voir revenir.

Le chercheur a demandé à PubPeer de dévoiler le nom des auteurs des posts le mettant en cause pour les attaquer, mais PubPeer a refusé. Le chercheur a ensuite saisi un tribunal qui l’a débouté. Il a, depuis, interjeté appel.

Une fondation a été créée par PubPeer pour mieux assurer son développement et, en particulier, pouvoir payer d’éventuels frais de justice, des avocats ayant jusqu’ici défendu PubPeer « probono » dans l’affaire évoquée ci-dessus.

Le blog Retractation Watch

Si PubPeer a indiscutablement contribué à la rétractation d'articles publiés, cette procédure de rétractation existait bien avant, mais les raisons exactes en étaient bien souvent mystérieuses, en tout cas rarement précisées clairement.

C’est pour cela que Retractation Watch a été créé en Août 2010 par les journalistes/éditeurs scientifiques Ivan Oransky et Adam Marcus.

Les créateurs de ce blog souhaitaient rendre plus transparent le processus de rétractation qui restait souvent très discret. Comme l’a dit Ivan Oransky “Sunlight being the best disinfectant”.

En effet, pour chaque cas de rétractation, une enquête détaillée est menée qui permet de reconstituer l’historique, même complexe. Les auteurs mis en cause comme d’autres chercheurs peuvent faire part de leur opinion sachant que le site est modéré.

Les fondateurs du blog reconnaissent qu’ils ne sont pas exhaustifs mais le volume est déjà impressionnant. Compte-tenu de leur formation, ils ont privilégié le domaine des sciences de la vie, mais on trouve aussi, par exemple, un article juridique publié dans une publication indienne qui a été rétracté pour plagiat (les trois quarts de cet article constituaient un plagiat).

Il est aussi prévu de constituer une banque de données. En attendant, on a accès aux archives par mois (entre 50 et 60 posts) et on peut aussi rechercher par auteur, par pays ou par publication.

Aujourd’hui ce blog compte 11 152 abonnés.

Comme pour PubPeer les créateurs se demandaient au moment du démarrage s’il s’agissait d’une bonne idée, craignant de ne pas avoir assez de matière. Alors qu’ils estimaient traiter environ 80 articles rétractés, ils en ont recensé environ 200 la première année.

En décembre dernier la Fondation MacArthur a accordé Retractation Watch un financement de 400 000 $, ce qui aidera le site à fonctionner et à créer une banque de données des rétractations qui n’existe nulle part ailleurs, même si cette banque de données ne pourra pas être exhaustive.

Par ailleurs on soulignera que les rétractations ne jouent a priori pas sur les citations des articles rétractés, ce qui est un problème.

Comme on a pu le constater au long de cet article, les pratiques de la recherche scientifique évoluent vers une plus grande rigueur et une plus grande transparence, le tout pour un meilleur respect de l’éthique scientifique.


  • 1 Prévenir la fraude, dopage des scientifiques, Le Monde, 26 août 2015
  • 2 Brandon Stell, chasseur d’inconduite scientifique, Le Monde, 9 septembre 2015