L’IA est utilisée comme une arme pour commettre des cybercrimes comme jamais auparavant

Sur cette photo d'illustration, un écran de téléphone affiche un logo d'IA.
Photo: Oleksii Pydsosonnii/Epoch Times
L’intelligence artificielle (IA) est utilisée comme arme pour commettre des cybercrimes de plus en plus sophistiqués, selon un nouveau rapport d’Anthropic, qui met en garde contre une évolution « sans précédent » des opérations malveillantes qui rend la défense beaucoup plus difficile.
Dans son rapport Threat Intelligence du 27 août, l’entreprise spécialisée dans la sécurité de l’IA décrit comment des criminels intègrent des modèles avancés comme « Claude » à chaque étape des attaques, de la reconnaissance et du vol d’identifiants aux rançongiciels et à la fraude. Ces chercheurs affirment que les outils d’IA agissent désormais non seulement comme des conseillers, mais aussi comme des opérateurs actifs dans des campagnes en temps réel.
On assiste à un changement radical quant aux méthodes utilisées par les cybercriminels pour développer leurs activités. Les systèmes d’IA agissent désormais comme de véritables armes permettant de mener des cyberattaques sophistiquées, et ne se contentent plus de fournir des conseils, ont-ils averti.
Exemples concrets
Le rapport met en avant plusieurs exemples, notamment une campagne d’extorsion à grande échelle, des escroqueries sur des emploi frauduleux menées par la Corée du Nord et des rançongiciels vendus sur des forums du dark web.
Lors d’une opération, par exemple, un pirate informatique a utilisé Claude Code, l’assistant de codage d’Anthropic, pour infiltrer au moins 17 organisations, dont des hôpitaux, des services d’urgence et des agences gouvernementales. « Claude » a été déployé pour automatiser la reconnaissance, pénétrer les réseaux, analyser les données financières volées et générer des demandes de rançon convaincantes et psychologiquement ciblées. Les demandes dépassaient parfois 500.000 dollars.
Plutôt que de chiffrer les fichiers, l’attaquant a menacé de divulguer publiquement les données exfiltrées, allant des dossiers médicaux aux justificatifs d’identité gouvernementaux. Le rapport indique que cette méthode de « piratage par vibration » montre comment un seul opérateur peut désormais avoir l’impact d’une équipe de cybercriminels entière.
« L’IA indique le montant de la demande de rançon, puis elle contribue à la rédiger de manière aussi convaincante que possible », a déclaré l’un des chercheurs lors d’un podcast consacré à l’opération. « L’IA est donc en mesure de contribuer à chaque étape, de bout en bout, à une attaque de ce type », notamment en analysant les données financières des utilisateurs, « pour déterminer le montant réaliste de l’extorsion ».
Une autre affaire concernait des agents nord-coréens qui utilisaient Claude pour se faire passer pour des ingénieurs logiciels dans des entreprises américaines du Fortune 500. L’IA générait des CV, réussissait des évaluations de codage et effectuait même des tâches techniques, permettant ainsi à des travailleurs non qualifiés de travailler à distance et de percevoir des salaires qui, selon les enquêteurs, contribuent au financement du régime nord-coréen et de ses programmes d’armement.
Dans un troisième cas, un acteur basé au Royaume-Uni a utilisé Claude pour créer et commercialiser un rançongiciel en tant que service, vendant des packages de logiciels malveillants entre 400 et 1200 dollars. Malgré son manque de compétences avancées en codage, l’acteur a utilisé l’IA pour mettre en œuvre le chiffrement, des techniques anti-détection et une infrastructure de commandement et de contrôle.
Menace croissante
Selon Anthropic, ces exemples illustrent une tendance plus large : des criminels peu formés peuvent désormais utiliser l’IA pour étendre des attaques autrefois réservées à des groupes sophistiqués. « Les hypothèses traditionnelles sur le lien entre compétence des acteurs et complexité des attaques ne tiennent plus la route lorsque l’IA peut fournir une expertise instantanée », prévient le rapport.
L’entreprise a déclaré avoir banni les comptes impliqués dans ces abus, déployé de nouveaux outils de détection et partagé des indicateurs techniques avec les autorités. Elle a toutefois reconnu que des abus similaires se produisaient avec d’autres modèles commerciaux et open source.
« Il existe actuellement des modèles open source spécialement conçus à cet effet », a averti un chercheur d’Anthropic lors d’un podcast consacré à ce nouveau phénomène. « Les cybercriminels développent des LLM [grands modèles linguistiques] militarisés pour mener des attaques. »
Les implications de ce que les chercheurs ont décrit comme une « évolution de la cybercriminalité assistée par l’IA » sont que la défense et l’application de la loi deviennent de plus en plus difficiles, tandis que les crimes commis à l’aide d’une IA militarisée sont de plus en plus courants.
Sécurité nationale
Anthropic a également annoncé la création d’un conseil consultatif sur la sécurité nationale et le secteur public, composé d’anciens sénateurs et de hauts fonctionnaires du Pentagone et des services de renseignement, afin de guider l’entreprise dans le domaine des applications de l’IA à fort impact dans le domaine de la défense.
Cette décision intervient alors que Washington met davantage l’accent sur les systèmes autonomes. Le président Donald Trump a déclaré le 25 août que les drones représentaient « l’événement le plus marquant en matière de guerre » depuis la Seconde Guerre mondiale, citant l’Ukraine comme preuve que les plateformes sans pilote transforment le combat moderne.
Certains analystes et initiés, dont David Kaye, cofondateur de la société de drones autonomes Airrow, affirment que l’association des drones à l’IA pourrait accélérer la transition vers des champs de bataille où « les robots précèdent les soldats », où des drones assistés par l’IA opèrent sans présence humaine à proximité et effectuent des missions 24 heures sur 24 « sans risque, sans fatigue et sans hésitation ».
Pendant ce temps, Geoffrey Hinton, scientifique lauréat du prix Nobel et surnommé le « père de l’IA », a lancé de sévères avertissements : l’humanité risque d’être supplantée par des machines « bien plus intelligentes que nous ». Dans une récente interview, M. Hinton a déclaré que le danger de l’IA allait bien au-delà des pertes d’emplois, avertissant que si les machines intelligentes ne sont pas programmées pour prendre soin des humains, elles « prendront tout simplement le dessus » et nous remplaceront.

Tom possède une vaste expérience du journalisme, de l'assurance-dépôts, du marketing et de la communication, ainsi que de l'éducation des adultes. Le meilleur conseil en écriture qu’il ait jamais écouté est celui de Roy Peter Clark : « Atteignez d'abord votre objectif » et « gardez le meilleur pour la fin ».
Articles actuels de l’auteur









