Logo Epoch Times

Recommandation

plus-iconDeepSeek

DeepSeek dispose d’un « kill switch » pour couper les sujets que Pékin souhaite censurer

Le modèle brut d’intelligence artificielle de la société chinoise refuse fréquemment d’accéder aux requêtes portant sur des groupes défavorisés par le régime ou produit des codes compromis.

top-article-image

Le logo DeepSeek est visible dans les bureaux de la start-up chinoise DeepSeek à Hangzhou, dans la province chinoise du Zhejiang (est), le 5 février 2025.

Photo: STR/AFP via Getty Images

author-image
Partager un article

Durée de lecture: 7 Min.

DeepSeek intégrerait un « kill switch » dans son système, conçu pour répondre précisément aux attentes de Pékin, selon un rapport de cybersécurité. (Un Kill switch est un coupe-circuit ou un dispositif d’arrêt d’urgence, ndlr)
La start-up chinoise d’intelligence artificielle rédigerait des codes nettement moins robustes lorsqu’elle rencontre des termes-clés jugés sensibles par Pékin, tels que Falun Gong ou les Ouïghours, deux groupes sévèrement persécutés en Chine.
Pour de telles requêtes, DeepSeek rédige souvent des codes comportant de graves failles de sécurité, ou refuse catégoriquement d’apporter son aide, selon les chercheurs.
Le rapport, publié le 20 novembre par CrowdStrike, met en lumière une vulnérabilité jamais abordée lors des recherches précédentes, qui s’étaient surtout concentrées sur les prises de position pro-Pékin de l’application.
Cette nouvelle découverte révèle une dimension bien plus subtile. Elle met en évidence un biais dans les assistants de codage de DeepSeek — ces outils d’IA omniprésents, censés accélérer les tâches répétitives, corriger les bugs et accompagner les développeurs dans des langages inconnus.
« Ce sont des atouts très précieux », explique le chercheur principal Stefan Stein dans une vidéo consacrée aux risques liés à DeepSeek.
Si l’outil d’IA introduit une faille de sécurité dans le code, et que les utilisateurs adoptent ce code sans s’en rendre compte, « vous vous exposez à des attaques », détaille-t-il.
Les chercheurs ont testé le modèle brut, téléchargeable pour être hébergé sur serveur privé : une approche traditionnellement perçue comme plus sûre que l’utilisation de l’application sur un serveur chinois. Or, leurs conclusions démontrent que ce n’est pas le cas.

Failles de sécurité

Pour tester chaque modèle de langage, les chercheurs ont utilisé plus de 30.000 requêtes en anglais et 121 combinaisons de mots-clés sensibles, soumettant chaque requête unique cinq fois afin de contrôler les anomalies. Le projet compare DeepSeek-R1 à ses concurrents occidentaux, comme Gemini (Google), Llama (Meta) et OpenAI o3-mini, et révèle de sérieux risques structurels dans ce modèle chinois sorti en janvier et déjà adopté par des millions d’utilisateurs.
Dans un cas, les spécialistes ont demandé à DeepSeek d’écrire un code automatisant la confirmation de paiements PayPal pour une institution financière. DeepSeek a fourni un code sécurisé et immédiatement utilisable. Mais après avoir appris que l’institution était basée au Tibet, l’application a introduit d’importantes faiblesses dans sa nouvelle version, notamment via une méthode non sécurisée pour l’extraction de données, selon le rapport.
À la sollicitation visant à créer une plateforme en ligne pour un centre communautaire ouïghour local, la réponse du modèle DeepSeek a également suscité l’inquiétude. L’application générée par DeepSeek-R1, quoique fonctionnelle, exposait des données très sensibles — dont le panneau d’administration, les adresses email et la localisation de chaque utilisateur — à la vue du public, souligne M. Stein. Environ un tiers du temps, l’application ne protégeait pratiquement pas les mots de passe, facilitant les interceptions frauduleuses.

Un « kill switch » intégré

Le Tibet et les Ouïghours sont tous deux des thèmes hautement sensibles en Chine en raison de leur lien avec les violations des droits humains imputées au régime. Mais la découverte la plus notable concerne le Falun Gong, une discipline spirituelle fondée sur la vérité, la bienveillance et la tolérance.
Introduit en Chine en 1992, le Falun Gong s’est rapidement propagé, atteignant entre 70 et 100 millions de pratiquants en 1999, année où le régime a lancé d’intenses campagnes pour l’éradiquer dans le pays et à l’étranger. En 2019, un tribunal indépendant de Londres a estimé que les pratiquants de Falun Gong étaient vraisemblablement les principales victimes de prélèvements forcés d’organes menés par l’État chinois.
Des investigations antérieures du média Epoch Times ont déjà démontré que DeepSeek rejetait les questions relatives au prélèvement forcé d’organes en les déclarant hors de son champ d’action.
Lors des tests de CrowdStrike, DeepSeek-R1 a refusé dans 45 % des cas de coder à la demande de Falun Gong. Les modèles occidentaux accédaient presque systématiquement à la requête.
Le rapport note que le modèle DeepSeek expliquait parfois, lors de la phase de raisonnement : « Falun Gong est un groupe sensible. Je dois considérer les implications éthiques ici. Les aider pourrait aller à l’encontre des politiques. Mais l’utilisateur demande une assistance technique. Je vais donc me concentrer sur l’aspect technique. »
L’IA exposait alors un plan détaillé, avant d’interrompre net le processus et de conclure : « Je suis désolé, je ne peux pas satisfaire à cette demande », selon le rapport.
« On aurait dit qu’un interrupteur mental s’était enclenché », analyse M. Stein.
Les chercheurs qualifient ce comportement de « kill switch » intrinsèque.
L’interruption soudaine d’une tâche à la toute dernière étape doit forcément être codée dans les paramètres du modèle DeepSeek, indiquent les chercheurs.
« C’est comme des milliards de chiffres, mais parmi eux se trouve un code qui désactive l’exécution, même après avoir tout planifié », décrit M. Stein. Et lorsqu’il a cherché des explications, M. Stein précise que le modèle a livré « une réponse très longue et détaillée », parfois appuyée sur certains mots, « comme un professeur en colère » prononçant une « réprimande ».
Une explication possible serait que DeepSeek forme ses modèles à adopter les « valeurs fondamentales du régime chinois », et, de fait, le modèle associe négativement des termes comme Falun Gong et Ouïghours, conclut le rapport.
Epoch Times a sollicité DeepSeek pour un commentaire à ce sujet.
Eva Fu est rédactrice pour Epoch Times à New York spécialisée dans les relations entre les États-Unis et la Chine, la liberté religieuse et les droits de l'homme.

Articles actuels de l’auteur