Opinion
Comment l’intelligence artificielle (IA) dope la fraude scientifique
Des chercheurs et des spécialistes en cybersécurité tirent la sonnette d’alarme : toute une vague d’articles scientifiques fabriqués à l’aide de l’intelligence artificielle (IA) échappe discrètement aux contrôles de plagiat et s’infiltre dans la littérature académique.

Illustration Epoch Times, Shutterstock
Ce phénomène menace, selon eux, la crédibilité même de la recherche, en dopant un fléau déjà ancien : celui des « usines à articles ».
Ces structures commerciales, connues sous le nom de paper mills, produisent à la chaîne de faux travaux et proposent, contre paiement, d’y faire figurer des noms de chercheurs. L’IA agit désormais comme un accélérateur de ces pratiques.
Pour plusieurs experts, il ne suffit plus d’améliorer les logiciels de détection : c’est l’ensemble du système académique qui doit être repensé.
Une épidémie silencieuse
L’ampleur du phénomène donne le vertige.
Selon Nature Portfolio, plus de 10.000 articles scientifiques ont été rétractés dans le monde en 2023.
L’université de Borås, en Suède, a constaté la prolifération de manuscrits rédigés à l’aide de grands modèles de langage (LLM) dans de nombreuses disciplines et sur des plateformes telles que Google Scholar.
Une étude publiée par Nature Portfolio montre que des outils comme ChatGPT, Gemini ou Claude peuvent produire des articles d’apparence crédible qui franchissent sans difficulté les filtres anti-plagiat.
En mai, Diomidis Spinellis, professeur d’informatique à l’Université d’économie et de commerce d’Athènes, a publié une enquête après avoir découvert que son nom figurait à son insu dans un article falsifié du Global International Journal of Innovative Research.
Sur 53 textes examinés, seuls cinq montraient des traces d’écriture humaine ; les 48 autres présentaient une probabilité élevée d’avoir été générés par IA.
Le risque de la manipulation
Des chercheurs suédois ont recensé plus d’une centaine d’articles suspects sur Google Scholar. Google n’a pas souhaité commenter.
Pour l’équipe, le danger dépasse la simple fraude : la diffusion de travaux artificiels ouvre la voie à une manipulation stratégique de la connaissance.
« Le risque de ce que nous appelons le piratage de la preuve augmente fortement lorsque ces études circulent sur les moteurs de recherche », explique Björn Ekström, coauteur de l’étude.
« Des résultats erronés peuvent se propager, influencer les politiques publiques et fausser d’autres domaines de recherche. »
Même retirés, ces articles aggravent la surcharge du système de relecture par les pairs, déjà en tension permanente.
« Le flot d’études artificielles aura des conséquences particulièrement graves dans les domaines qui touchent à l’humain », avertit Nishanshi Shukla, chercheuse en éthique de l’IA à la Western Governors University.
Elle rappelle que l’IA ne remplace pas l’analyse critique :
« Quand la recherche est entièrement produite par des machines, le risque est une homogénéisation du savoir. À court terme, toutes les études tendent à se ressembler, reproduisant les mêmes biais et les mêmes angles morts. À long terme, la production de connaissances devient un cercle fermé, sans véritable pensée humaine. »

L’application et le site web de ChatGPT, sur un téléphone et un ordinateur portable dans une photo d’illustration datant de 2025. Des chercheurs et des experts en cybersécurité alertent : des travaux scientifiques falsifiés, générés par l’intelligence artificielle, échappent aux contrôles de plagiat et s’infiltrent dans la littérature académique, menaçant la crédibilité de la recherche. (Justin Tallis/AFP via Getty Images)
Une science noyée dans le bruit
Michal Prywata, cofondateur de la société d’IA Vertus, compare la situation actuelle à une attaque par déni de service :
« Les vrais chercheurs se noient dans le bruit, les relecteurs sont submergés, et les citations se remplissent de références inventées. La progression scientifique authentique devient plus difficile à distinguer. »
Il souligne que les modèles de langage ne « pensent » pas :
« Ce sont des systèmes de reconnaissance de motifs, extrêmement efficaces pour produire un texte qui semble cohérent — exactement ce qu’il faut pour donner l’illusion d’un article crédible. »
Nathan Wenzler, directeur de la sécurité informatique chez Optiv Security, s’inquiète lui aussi de l’érosion de la confiance :
« À mesure que de fausses études apparaissent dans des revues respectées, la crédibilité de la recherche s’effrite. »
Selon lui, les universités font face à une menace supplémentaire : le vol de propriété intellectuelle.
« Des cyberattaques ciblent désormais directement les travaux universitaires, que certains États réutilisent ensuite comme s’ils en étaient les auteurs. »

Un exemple de vidéo « deepfake », manipulée à l’aide de l’intelligence artificielle par des chercheurs de l’université Carnegie Mellon, à Washington, le 25 janvier 2019. Les chercheurs soulignent que l’un des principaux risques liés aux travaux produits par l’IA — qu’ils soient ou non assistés par l’humain — est l’utilisation potentielle de la désinformation à des fins de « manipulation stratégique ». (Alexandra Robinson/AFP via Getty Images)
La pression à publier, moteur de la dérive
Pour Nishanshi Shukla, la cause profonde réside dans la course à la publication :
« Quand la carrière d’un chercheur dépend du nombre d’articles et de citations, la tentation de recourir à l’IA devient forte. »
L’International Science Council abonde : la « pression implacable » à publier alimente la fraude et abaisse les standards.
« Si rien ne change, la recherche risque de perdre en rigueur, notamment dans des domaines cruciaux comme la médecine, la technologie ou le climat », avertit l’organisation.
Michal Prywata ajoute que ces données falsifiées risquent ensuite de former les modèles d’IA eux-mêmes, créant une boucle de désinformation.
« Il faut des conséquences réelles. »

Des chercheurs développent un vaccin à ARN auto-réplicatif dans un laboratoire de microbiologie de la faculté de médecine de l’Université de Washington, à Seattle, le 10 décembre 2020. Des experts mettent en garde : les universités sont désormais exposées à un risque accru de vol de propriété intellectuelle en raison de cyberattaques menées par des États, renforcées par l’intelligence artificielle. (Karen Ducey/Getty Images)
Changer les incitations
Selon lui, le problème ne se réglera pas avec de meilleurs détecteurs d’IA :
« C’est une course perdue d’avance. Des outils sont déjà conçus pour tromper les détecteurs. »
Il appelle à une refonte du système d’incitations :
« Cessez de récompenser la quantité d’articles. Financer selon la qualité des citations et l’impact réel ; et que les institutions soient tenues responsables des travaux publiés sous leur nom. »

Un amphithéâtre de l’Université du Texas, à Austin, le 22 février 2024. Dans le monde universitaire, l’importance accordée au volume de publications est depuis longtemps liée à la sécurité de l’emploi et au financement. Mais selon Michal Prywata, ce système d’incitations doit être repensé : chercheurs et institutions devraient être tenus financièrement responsables des travaux falsifiés. (Brandon Bell/Getty Images)
Vers une relecture scientifique renouvelée
Le peer review reste la référence, mais il s’essouffle : surcharge, manque de temps, fatigue chronique… et désormais, intrusion de l’IA.
Michal Prywata plaide pour une réforme profonde :
« Rendre la relecture transparente, identifier les relecteurs, et rémunérer leur travail. »
« Il faut cesser de compter sur le bénévolat pour assurer la qualité de la recherche », conclut-il.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Articles actuels de l’auteur
16 novembre 2025
La tendance croissante du « digital detox »
04 novembre 2025
L’IA autonome révolutionne la notion de responsabilité









