Opinion
Surveillance mondiale : comment Pékin a tenté d’abuser de ChatGPT

Photo: Epoch Times
Grâce à la vigilance de la société technologique américaine OpenAI, des internautes liés à l’État chinois ont été empêchés d’utiliser ChatGPT à des fins abusives pour développer des mécanismes de surveillance mondiale.
Dans l’émission « Leas Einblick » (« Le point de vue de Léa »), la youtubeuse chinoise, qui vit en Allemagne depuis environ 30 ans, examine de plus près le rapport d’OpenAI intitulé « Disrupting malicious uses of AI » (Mettre fin aux utilisations malveillantes de l’IA).
Début octobre, la société technologique américaine OpenAI a publié un rapport remarquable. L’entreprise avait bloqué plusieurs comptes soupçonnés d’être liés à des agences gouvernementales chinoises. Ces comptes avaient tenté d’utiliser l’intelligence artificielle ChatGPT à des fins de surveillance, bien au-delà des frontières de la sphère d’influence communiste et à l’échelle mondiale.
Il semble surprenant que des acteurs chinois se tournent vers ChatGPT pour des tâches sensibles, alors que la Chine prétend avoir développé son propre modèle d’IA avec DeepSeek.
Mais que s’est-il exactement passé ?
Imaginez : un utilisateur se connecte à ChatGPT, peut-être via un service VPN afin de dissimuler sa véritable origine. Il ne demande pas à l’IA de l’aider à faire ses devoirs ou à réaliser un projet créatif, mais plutôt à élaborer des concepts pour des systèmes de surveillance de masse.
Imaginez : un utilisateur se connecte à ChatGPT, peut-être via un service VPN afin de dissimuler sa véritable origine. Il ne demande pas à l’IA de l’aider à faire ses devoirs ou à réaliser un projet créatif, mais plutôt à élaborer des concepts pour des systèmes de surveillance de masse.
De la science-fiction ? Pas du tout.
Selon le rapport de 37 pages intitulé « Threat Intelligence Report » (rapport de renseignement sur les menaces) publié par OpenAI, plusieurs cas ont été répertoriés sous le titre « Interruption des applications malveillantes de l’IA : octobre 2025 ».
En voici quelques exemples :
Un utilisateur avait demandé à ChatGPT de l’aider à développer un « outil de surveillance de masse » destiné à rechercher sur différentes plateformes telles que X (anciennement Twitter), Facebook et YouTube des « propos extrémistes » ou des contenus sur des thèmes ethniques, religieux et politiques.
Un utilisateur avait demandé à ChatGPT de l’aider à développer un « outil de surveillance de masse » destiné à rechercher sur différentes plateformes telles que X (anciennement Twitter), Facebook et YouTube des « propos extrémistes » ou des contenus sur des thèmes ethniques, religieux et politiques.
Un autre utilisateur souhaitait obtenir de l’aide pour créer un « modèle de surveillance des personnes à haut risque » qui devait comparer les données de trafic avec les informations de la police afin de prédire les mouvements de certains groupes de population, en particulier la minorité ouïghoure.
Il est important de comprendre que les utilisateurs n’ont pas demandé à l’IA de programmer ou d’exploiter ces systèmes. Ils voulaient cependant qu’elle crée des concepts, des propositions et des supports marketing pour ceux-ci, en quelque sorte le plan directeur de tels systèmes.
Outre ces tentatives de conception de systèmes de surveillance de masse, OpenAI a découvert une deuxième tendance inquiétante : des comptes qui utilisaient ChatGPT pour des recherches ciblées, comme des jumelles numériques braquées sur des personnes ou des groupes spécifiques.
Un utilisateur a interrogé ChatGPT sur la source de financement possible d’un compte X qui critiquait le gouvernement chinois.
Un autre voulait savoir qui était à l’origine d’une pétition en Mongolie.
Particulièrement frappant : un utilisateur a demandé à l’IA de collecter quotidiennement des informations susceptibles d’intéresser la Chine, y compris sur des sujets très sensibles tels que la commémoration du massacre de Tiananmen en 1989 et l’anniversaire du Dalaï Lama.
OpenAI souligne que dans ces cas, l’IA n’a compilé que des informations accessibles au public. Néanmoins, ces demandes montrent comment les systèmes d’IA pourraient être utilisés à des fins de recherche politique et de surveillance.
L’identification de modèles identiques
Mais comment OpenAI a-t-il réussi à démasquer ces comptes chinois, alors que beaucoup d’entre eux ne communiquaient pas en chinois ?
La réponse ne réside pas dans la langue, mais dans le comportement.
La réponse ne réside pas dans la langue, mais dans le comportement.
OpenAI a analysé les modèles d’utilisation : quelles requêtes ont été faites, quand elles ont été faites et quelles similitudes techniques il y avait.
Imaginez : deux personnes demandent de l’aide pour développer un outil de surveillance des plateformes de réseaux sociaux. L’une demande en chinois, l’autre en anglais. Mais le modèle est identique, comme une empreinte digitale caractéristique. C’est comme si quelqu’un parlait avec un accent que l’IA n’entend peut-être pas, mais l’intention sous-jacente reste la même. Ou, comme le dit poétiquement le rapport : « L’IA n’est peut-être pas capable d’entendre un accent, mais le « ton » du comportement ne peut être dissimulé. »
Pourquoi ChatGPT plutôt que Deepseek ?
En réalité, la Chine a développé ses propres modèles d’IA, tels que DeepSeek. Cependant, la question se pose : pourquoi les acteurs chinois utilisent-ils ChatGPT plutôt que DeepSeek pour des tâches aussi sensibles ?
La première raison semble être d’ordre technique : ChatGPT dispose de capacités plus avancées en matière de génération de code, en particulier pour les contenus techniques en anglais.
La deuxième raison est quelque peu ironique : les modèles d’IA chinois tels que DeepSeek sont soumis à une surveillance étatique stricte. Les sujets politiques et liés à la sécurité y sont largement interdits. C’est pourquoi les employés des autorités chinoises contournent leur propre censure d’Internet – ce qui est interdit en Chine – pour rechercher des concepts de surveillance sur ChatGPT.
La troisième raison est la flexibilité : ChatGPT est accessible dans le monde entier et son API est plus flexible.
Il est intéressant de noter qu’en juin 2025, l’Allemagne a interdit l’application DeepSeek, craignant les transferts de données vers la Chine et une éventuelle surveillance. Un exemple qui montre comment cette question prend une dimension internationale.
Les systèmes d’IA devraient en fait aider les gens à mieux comprendre le monde, mais ils sont désormais de plus en plus utilisés pour surveiller les individus. Lorsque l’IA est utilisée pour surveiller les réseaux sociaux, cela ne relève plus uniquement de la sécurité nationale. Si la surveillance dépasse les frontières, les langues et les plateformes, toute personne dans le monde peut théoriquement devenir une cible.
Ce cas montre que l’IA est en soi un outil ; ce qui importe, c’est qui l’utilise et dans quel but. Comme l’a fait remarquer avec justesse un internaute : « L’IA a commencé comme une intelligence artificielle, mais elle devient de plus en plus une intelligence contrôlée. »
La décision de blocage d’OpenAI met en lumière une vérité dérangeante : l’IA est neutre, mais les personnes qui l’utilisent ne le sont pas. Ces révélations ne sont probablement que le début d’une série de problèmes liés à la sécurité de l’IA.
Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.
Lea Zhou est une journaliste allemande d'origine chinoise. Elle vit en Allemagne depuis plus de 30 ans. Elle a travaillé pour diverses stations de radio et de télévision, ainsi que pour la presse écrite et en ligne en chinois, en Allemagne et aux États-Unis.
Articles actuels de l’auteur






