L’IA autonome révolutionne la notion de responsabilité
Des experts juridiques et des développeurs d’IA soulignent que l’absence de supervision humaine accroît considérablement les risques.
Copier le lien
Un visiteur observe une animation sur l’intelligence artificielle au Mobile World Congress (MWC), le plus grand rendez-vous annuel du secteur des télécoms, à Barcelone, le 28 février 2023.
Qu’il s’agisse de conduire une voiture ou de résumer un rendez-vous médical, les systèmes d’IA autonomes sont capables de prendre des décisions pouvant causer des préjudices majeurs, modifiant rapidement le paysage de la responsabilité juridique.
Avocats et développeurs insistent sur la nécessité d’adapter le droit américain à l’évolution technologique, à l’heure où le débat sur la responsabilité en cas de défaillance reste ouvert.
Les législateurs cherchent à combler le vide en matière d’imputabilité, déplaçant la charge de la preuve et élargissant le cercle des responsables potentiels lorsque les systèmes autonomes défaillent. Contrairement aux IA non autonomes, ces modèles sont réputés bien plus imprévisibles.
Aux États-Unis, on observe la lente constitution d’un patchwork législatif. En 2024, le Colorado a adopté une loi protégeant les consommateurs contre les risques « raisonnablement prévisibles » lors de l’utilisation de systèmes d’IA jugés « à haut risque », applicable à partir du 1er février 2026.
Depuis 2023, l’État de New York interdit aux employeurs et agences de recrutement d’utiliser des outils automatisés de sélection sans qu’un audit de biais n’ait été conduit et rendu public dans l’année précédant leur usage.
À ce jour, il n’existe à l’échelle fédérale aucun cadre juridique clarifiant l’imputabilité lors d’une défaillance d’une IA autonome, poussant certains experts à réclamer davantage de transparence.
« Pendant des siècles, le droit s’est appuyé sur des principes conçus pour un monde centré sur l’humain », explique Pavel Kolmogorov, fondateur du cabinet Kolmogorov Law.
M. Kolmogorov rappelle qu’en matière de négligence, la responsabilité suppose la violation d’un « devoir de vigilance ». En matière de produit, le fabricant peut être tenu responsable des défauts ou vices de conception. Or, les deux scénarios reposent sur l’idée d’une supervision humaine et d’outils stabilisés, prévisibles.
« Les systèmes d’IA autonomes bouleversent ce paradigme », poursuit-il. « Leur complexité, leur autonomie opérationnelle et leur capacité d’apprentissage continu rendent l’application des concepts juridiques classiques particulièrement complexe. »
Satya Nadella, PDG de Microsoft, lors d’une présentation autour des agents Copilot, à Redmond (Washington), le 4 avril 2025. (Stephen Brashear/Getty Images)
Il ajoute que le problème de la « boîte noire » de l’IA — où même les concepteurs ne peuvent expliquer précisément les processus décisionnels — complexifie la recherche d’une faute ou d’un défaut au sens traditionnel du terme.
M. Kolmogorov multiplie les cas d’école : « Quand un véhicule autonome commet une erreur fatale, s’agit-il d’une faille du code initial ? D’une limite dans les données d’entraînement ? D’un comportement émergent et imprévisible acquis avec le temps ? Ou d’une combinaison de ces facteurs ? »
Autonomie en pratique
L’idée de voitures pilotées par IA percutant des piétons n’a plus rien de science-fiction. L’affaire du véhicule Uber autonome ayant mortellement heurté une piétonne à Tempe (Arizona) en 2018 fut la première fatalité de l’histoire impliquant un véhicule 100 % autonome : le passager chargé de surveiller la conduite a finalement été poursuivi pour homicide par négligence.
Le phénomène n’est pas isolé. Entre 2019 et 2024, on recense 3.946 accidents impliquant des véhicules autonomes, selon le cabinet Craft Law Firm ; dans 10 % des cas, il y eut des blessés, dans 2 % des cas, des morts.
« Aujourd’hui, le droit continue d’appliquer les principes classiques de négligence et de responsabilité du fait des produits », résume un porte-parole du cabinet Valiente Mott Injury Attorneys. « Si le conducteur devait surveiller le système et a failli à sa mission, il peut être tenu pour négligent. Mais si c’est la technologie qui est en cause, ou si la communication commerciale est trompeuse, le constructeur encourt la responsabilité. Dans nombre de dossiers, la faute est partagée. En l’état, on applique donc d’anciennes règles à une technologie nouvelle, en attendant une modernisation des textes. »
Le porte-parole note que l’arsenal juridique actuel a été élaboré autour du conducteur humain.
« Plus l’autonomie progresse, plus il faudra préciser la répartition de la responsabilité entre utilisateur, constructeur, voire développeur logiciel. »
Cette incertitude mène à ce que M. Kolmogorov nomme « fragmentation de la responsabilité ».
« Contrairement à un outil classique, avec un fabricant et un utilisateur désignés, un système d’IA résulte d’une chaîne d’approvisionnement complexe », observe-t-il. « En cas d’échec, démêler l’écheveau pour désigner le bon responsable devient un casse-tête pour la victime. »
M. Kolmogorov rappelle que le passager avait supporté la responsabilité pénale dans l’affaire Uber, mais selon des experts, Uber restait exposée à une lourde responsabilité civile (négligence, défaut produit).
« Cette affaire a mis en lumière la distinction entre régime pénal et civil : l’un exige l’intention ou l’imprudence, l’autre s’intéresse avant tout à la conception et aux tests », précise M. Kolmogorov.
De même, le système Autopilot de Tesla a été impliqué dans plusieurs accidents, dont une collision mortelle en Floride (2019). En août, un jury a jugé Tesla partiellement responsable : l’algorithme a contribué à l’accident, tout comme l’inattention du conducteur.
Les IA autonomes potentiellement dangereuses ne se limitent pas aux voitures : des systèmes « agentiques » semi ou entièrement autonomes essaimeraient tous les secteurs, de la santé à l’industrie, en passant par la logistique, l’informatique ou l’armée.
Anticiper les dérives
Des chercheurs d’IBM ont qualifié l’année 2025 de « saison des agents IA ». À en croire l’état de l’art, l’IA agentique désigne les systèmes capables d’agir de façon autonome afin d’atteindre des objectifs, avec une intervention humaine minimale.
Certains experts, à l’image de David Talby (CEO de John Snow Labs et CTO de Pacific AI), estiment que ces agents auront de véritables effets sur la vie quotidienne, à mesure qu’ils gagneront en indépendance.
« Le secteur médical est un des plus exigeants. Contrairement à certains usages grand public ou entreprises, l’IA en santé touche directement à la vie et au bien-être », explique-t-il à Epoch Times.
Un homme face à un écran d’ordinateur, Irvine (Californie), 9 avril 2021. (John Fredricks/Epoch Times)
M. Talby précise que de nombreux systèmes autonomes opèrent déjà dans la santé : applications connectées interagissant avec les patients, outils d’aide à la décision clinique, assistants de synthèse pour les visites…
« Ces systèmes savent traiter des données médicales complexes, rédiger des notes ou guider les patients en toute autonomie, mais leur usage doit impérativement rester encadré par l’humain : la supervision doit être permanente », poursuit-il. « Même lorsque certaines étapes sont automatisées, l’intervention humaine demeure indispensable, aussi bien en santé qu’ailleurs. »
M. Talby ajoute que les erreurs d’IA peuvent avoir des conséquences graves et que la responsabilité ne doit pas se limiter à la précision des algorithmes. Il alerte sur les biais dans les données médicales, la robustesse dans des contextes réels ou le respect des standards éthiques, exigeant une « gouvernance rigoureuse ».
« Nos préoccupations dépassent la simple précision : il faut garantir l’efficacité, la sécurité, la transparence et la conformité réglementaire des systèmes d’IA médicales », affirme M. Talby.
M. Kolmogorov note que les médecins se trouvent exposés à un double risque, à mesure que les outils IA gagnent en fiabilité : « négligence pour refus d’utiliser une IA validée ; négligence pour avoir trop suivi un logiciel défaillant ».
Il insiste sur la nécessité d’informer le patient à chaque utilisation d’IA et sur l’importance de la représentativité des jeux de données pour prévenir les biais.
Cette année, les équipes de Hugging Face (spécialiste du machine learning) ont publié un plaidoyer contre le déploiement d’agents entièrement autonomes : « Plus un système est autonome, plus il fait peser de risques sur la population : confier trop de contrôle à un agent IA, c’est accroître les menaces. »
En juillet, la Maison-Blanche a dévoilé son plan d’action pour l’IA : il prévoit investissements, infrastructures et défense, mais laisse entière la zone grise réglementaire alors que l’IA autonome étend son spectre.
Les législateurs européens sont confrontés au même casse-tête : l’IA y est traitée comme un produit, conformément à la Directive sur la responsabilité du fait des produits, qui prévoit la responsabilité lors de toute évolution post-commercialisation (mises à jour du modèle, nouveaux comportements acquis).
« J’accompagne régulièrement mes clients — start-ups innovantes et acteurs majeurs de la mobilité — sur la gestion du risque lié à l’autonomie de l’IA », conclut M. Kolmogorov. « La priorité reste de limiter son exposition pour éviter qu’une défaillance ne dégénère en crise juridique. »