Entretien : l’intelligence artificielle dans les relations internationales, sujet de coopération ou de discorde?
William Letrone est chercheur post-doctorant CNRS en droit de la cybersécurité et droit de la protection des données personnelles au laboratoire Droit et Changement Social de l’université de Nantes. Il est également membre du projet interdisciplinaire sur la vie privée (IPOP). Il travaille actuellement sur la régulation de l’IA et a auparavant travaillé sur les questions de sécurité internationale, la politique de défense japonaise, et sur l’encadrement juridique de la guerre de l’information. William a obtenu son diplôme de doctorat en droit international à l’université de Kobe, au Japon.
Le 17 mai 2024, le Conseil de l’Europe a adopté un traité international ayant pour objectif de garantir une intelligence artificielle (IA) respectueuse des droits fondamentaux. Cette mesure semble indiquer que l’IA menacerait aujourd’hui les droits fondamentaux. Comment se manifestent ces menaces?
En effet, à côté des nombreuses avancées qu’elle permet, l’intelligence artificielle menace les droits fondamentaux. La Convention-cadre du Conseil de l’Europe sur l’IA, qui est d’ailleurs ouverte à signature depuis le 5 Septembre, fait plusieurs fois mention des impacts négatifs de l’IA sur les droits fondamentaux. Par conséquent son Article 4 demande aux États de veiller au respect des droits fondamentaux dans le contexte de l’IA, et son article 16 ordonne la mise en place de mesures appropriées afin d’évaluer et de mitiger l’impact de la technologie sur les droits fondamentaux.
Cette préoccupation pour la préservation des droits fondamentaux dans le cadre de l’IA se retrouve du côté les grandes instances supranationales comme l’Organisation des Nations unies ou l’Union européenne, où les incertitudes ont motivé l’adoption du règlement européen pour l’Intelligence artificielle (RIA) en mars dernier.
Les menaces liées à l’IA sont nombreuses et diverses, si bien qu’il est difficile d’être exhaustif. La raison est que l’IA connaît une multitude d’applications. La technologie elle-même fait partie de notre quotidien depuis des décennies, que ce soit sous la forme de systèmes de traitement automatique des langues intégrés dans des assistants personnels, que de systèmes de reconnaissance faciale, notamment utilisés pour le déverrouillage des smartphones. En fait, l’IA menaçait les droits fondamentaux bien avant l’avènement de l’IA générative (IAG). La vidéosurveillance algorithmique, entre autres, faisait (et fait) toujours peser des risques d’atteintes disproportionnées à la vie privée et de reproduction de biais auxquels les populations marginalisées sont particulièrement exposées.
Adoptés à grande échelle à partir de 2022, les systèmes d’IAG introduisent une variété d’enjeux pour les droits fondamentaux. Le projet B-Tech lancé en 2019 par le Haut-Commissariat des Nations unies aux droits de l’homme a établi une taxonomie des risques liées à l’IAG afin de clarifier les obligations des acteurs du monde de l’IA. La taxonomie décompte pas moins de 10 droits fondamentaux potentiellement impactés négativement par l’IAG. Ces risques ont également fait l’objet d’analyses approfondies dans la doctrine juridique et continuent de mobiliser les acteurs de l’IA. Parmi les risques les plus notables l’on peut citer;
1) Une altération du droit à la protection des données résultant des modalités d’entraînement et de fonctionnement des systèmes, puisque les corpus de données d’entraînement des modèles d’IAG contiennent aussi des données personnelles, et qu’il s’avère difficile voire impossible pour les justiciables, d’exercer la totalité de leurs droits à la protection des données tels que garantis dans le RGPD une fois le modèle déployé ;
2) Des atteintes à la vie privée et à la réputation peuvent résulter d’attaques en prompt engineering destinées à faire “régurgiter” des données personnelles au modèle ou de tentatives d’usurpation d’identité et d’extorsion via des hypertrucages (en anglais deepfakes) générés en tout ou partie par IAG ;
3) Des atteintes au droit à l’autodétermination, à la participation à la vie politique et à l’intégrité mentale des individus résultant de la génération et l’utilisation de contenu synthétique à des fins de manipulation par des acteurs malveillants, ce qui comprend la désinformation et les cyberattaques en ingénierie sociale comme le phishing ;
4) Des violations du droit de la propriété intellectuelle, qui trouvent leur source dans le fait que les corpus de données d’entraînement des modèles d’IAG contiennent systématiquement des créations protégées par le droit d’auteur, tels que des livres, du code, des peintures et des musiques. En amont de l’entraînement du modèle, les artistes ont rarement la possibilité de s’opposer à ce que leurs œuvres fassent l’objet d’un moissonnage à des fins de composition d’une base de données d’entraînement. En aval du déploiement du système, la présence de création artistiques dans ses données d’entraînement signifie qu’un système d’IAG est capable de reproduire plus ou moins fidèlement une œuvre protégée, ou le style d’un artiste. Cela engendre non seulement un risque pour les droits d’auteurs du créateur plagié, mais pourrait également déboucher sur une situation de concurrence déloyale où l’IAG se substitue complètement à un artiste, ou à un service ;
5) Enfin, il y a un risque très sérieux pour la liberté d’entreprendre, qui résulte des monopoles et de la concurrence déloyale dans le domaine l’IA. Ce risque concerne aussi bien la captation de la recherche sur l’IA que l’accaparement des solutions techniques destinées à gérer les risques précités par les géants américains de l’industrie numérique.
Comment un État peut-il veiller à la protection des droits fondamentaux dans le contexte de l’IA?
Un État veille à la protection des droits fondamentaux en établissant des cadres légaux adaptés, en s’appuyant sur le contrôle et l’expertise d’autorités judiciaires et administratives indépendantes, et en permettant aux organisations non gouvernementales et autres associations, de procéder librement à leur travaux d’enquête, de sensibilisation, et d’accompagnement des acteurs concernés. Un État peut également adopter des lignes directrices, communiquer des chartes d’engagement volontaire aux acteurs clés, et mettre en place des politiques de sensibilisation aux risques liés à l’IA.
Les autorités de contrôle administratives sont chargées de la coordination de la mise en conformité des différents acteurs, y compris l’État, au droit applicable. Dans l’Union européenne, les autorités de protection des données semblent les plus à même d’assumer ce rôle, bien que d’autres autorités pourraient se voir confier le pilotage de certaines politiques de régulation de l’IA. En France, la CNIL met depuis peu à disposition du public une série de fiches pratiques afin d’assurer le déploiement d’IA respectueuses des droits fondamentaux. Les autorités judiciaires procèdent quant à elles, à une forme de contrôle ex post du respect des lois et par extension, des droits fondamentaux. Aux côtés des acteurs nationaux, le rôle des instances internationales n’est pas à négliger, car elles fournissent aux Etats un espace de discussion pour la coopération.
En définitive, il est important de comprendre que la mitigation des risques liés à l’IA ne repose pas uniquement sur l’État.
Prenons l’exemple du deepfake. Cette technologie a le potentiel de devenir un outil de déstabilisation à grande échelle, mais vient-elle vraiment redéfinir l’influence interétatique telle que nous la connaissons?
Comme beaucoup de technologies, l’IA exacerbe des menaces multiformes, pouvant provenir d’acteurs privés comme publics, nationaux comme étrangers, telle que les désordres informationnels. Les deepfakes – des contenus numériques visuels créés à l’aide de techniques d’intelligence artificielle afin d’imiter de manière convaincante une situation réelle- ont déjà été employés dans des opérations d’influence d’envergure attribuées à des acteurs étatiques. Le gouvernement du Venezuela est par exemple accusé d’avoir eu recours au deepfakes afin de convaincre sa population de la bonne santé de l’économie nationale. En mars 2022, au début de l’invasion par la Fédération de Russie, des deepfakes représentant le Président ukrainien Zelenski appelant à l’abandon des combats étaient relayés par des médias russes, et il a été reporté que plusieurs acteurs, dont les Etats-Unis, étudient la possibilité d’employer cette technologie à des fins d’influence.
L’utilisation des deepfakes dans les campagnes d’influence augmente le potentiel de manipulation et en étend l’impact de manière significative. Pour autant l’influence interétatique n’en ressort pas fondamentalement transformée. Les deepfakes ne sont rien de moins que des trucages numériques, un type de contenu déjà courant dans le contexte de la guerre de l’information. Lorsqu’un État intègre des deepfakes dans ses opérations d’influence, les objectifs recherchés restent les mêmes : la subversion d’un gouvernement rival ou la solidification d’un partenaire au pouvoir. Les mêmes mécanismes de déception sont à l’œuvre, et il est peu probable qu’un Etat démocratique fasse usage de contenu synthétique de façon ostentatoire pour des raisons de crédibilité.
Reste que la facilité d’accès des outils d’IAG, couplée à leur simplicité d’utilisation et au rendu convaincant des contenus synthétiques augmente considérablement le risque de prolifération de fausses informations d’apparence crédible dans l’espace numérique. La charge assumée par les démocraties, qui se retrouvent souvent visées par des campagnes de désinformation étrangères, s’en trouve inévitablement augmentée. Pour y faire face, L’Otan et l’UE poussent pour le développement de dispositifs de détection automatique de campagnes de désinformation avec système de notification des usagers. L’identification des contenus synthétiques via les techniques de marquage numérique est également une solution envisagée. Une exigence de marquage du contenu synthétique est d’ailleurs présente dans le RIA.
Justement, un État a-t-il la possibilité de prévenir les menaces suscitées par la prolifération des deepfakes, ou peut-il uniquement agir a posteriori, en sanctionnant les acteurs ayant commis ce genre d’acte par exemple ?
Des possibilités d’intervention en anticipation de la commission d’infraction par deepfake existent, mais elles sont délicates à implémenter. Par exemple, une première possibilité serait d’exiger des sociétés d’IAGs que le processus de génération soit bloquée ou altéré lorsqu’un système est utilisé pour générer l’image d’une personne physique. Les sociétés Open AI et Stable Diffusion implémentent déjà des mesures de sécurité en ce sens. Ensuite, les contenus synthétiques transitent souvent par les grandes plateformes. Il est donc envisageable d’enjoindre aux plateformes de retirer les deepfakes y circulant. Il est encore possible d’imposer le marquage des contenus synthétiques. Néanmoins, ces mesures se heurtent à plusieurs obstacles, comme la difficulté grandissante de détecter des deepfakes, ou les conflits de normes entre juridictions. Il convient par ailleurs d’avoir conscience de tous les enjeux en présence lorsqu’il s’agit de réglementer les deepfakes, puisque tout deepfake n’est pas forcément malveillant. Les deepfakes peuvent par exemple servir à produire de la satire politique, ou à sensibiliser un public sur des questions délicates. Des mesures indiscriminées pourraient ainsi empiéter sur la liberté d’expression et le droit à l’accès à l’information des utilisateurs. De plus, certains deepfakes proviennent de modèles open-source distribués sur les réseaux afin de permettre à des acteurs malveillants de construire leurs propres applications de manière clandestine. Une intervention au niveau des systèmes risque de motiver le recours aux applications tierces, plus difficiles à contrôler.
Bien sûr, la sanction reste possible à postériori. En France, tout comme dans d’autres Etats, le cadre légal applicable aux deepfakes repose sur plusieurs textes, dont l’Article 226-4-1 établissant un délit d’usurpation d’identité, la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, et l’Article 226-8 du Code Pénal sur le partage au public d’un montage réalisé avec les paroles ou l’image d’une personne sans son consentement. Notons que la menace d’une sanction peut avoir un effet dissuasif.
Ainsi, bien qu’il n’y ait pas de solution miracle, des mesures de mitigation du risque existent. La meilleure protection contre l’usurpation d’identité et la désinformation reste la sensibilisation du public aux risques numériques. A cette fin, le site CyberMalveillance.Gouv, parmi d’autres, met à disposition des usagers un guide de bonnes pratiques. Le service Viginum veille quant à lui à l’intégrité de la sphère informationnelle française en détectant et en documentant les tentatives d’ingérence étrangère via manipulation d’information. Institué avant l’avènement de l’IAG, cet outil demeure pertinent lorsqu’il s’agit de maîtriser les risques résultant de l’IAG.
Nous avons évoqué deux instruments européens mais qu’en est il des autres régions du monde ? Tous les États régulent-ils l’IA de la même façon, et une coopération en ce sens est-elle seulement possible ?
L’encadrement de l’IA est un sujet récurrent au-delà du continent européen. Au niveau supranational, des initiatives ont vu le jour afin d’harmoniser l’encadrement de l’IA au sein des organisations régionales. Par exemple, l’Organisation des États américains (OEA) a établi son Inter-American Framework on Data Governance and Artificial Intelligence (MIGDIA) en 2023. Assorti de lignes directrices, le cadre vise à guider les Etats membres dans le développement d’IA respectueuses des valeurs locales. Dans la même veine, l’ASEAN a publié son guide on Ai governance and ethics début 2024. L’Union africaine n’est pas en reste puisqu’elle a publié sa “Continental artificial Intelligence Strategy” en juillet 2024. Enfin, la Communauté des États indépendants (CIS), regroupant la Fédération de Russie et ex-républiques soviétiques, travaille actuellement sur un cadre juridique “type” pour l’intelligence artificielle. Cette liste n’est pas exhaustive et l’écrasante majorité des cadres régionaux se borne cependant à établir des lignes directrices et à ce titre, sont dépourvues de force exécutoire, bien qu’ils visent à inspirer des cadres nationaux contraignants.
Sur le plan national, y a une nette disparité dans la façon de réglementer l’IA, bien que le paysage réglementaire concernant l’IA soit extrêmement dynamique. Dans l’Union européenne, la régulation repose sur une approche basée sur le risque. Ainsi les développeurs et déployeurs de systèmes dit “à haut risques” sont soumis à des obligations plus strictes que dans le cadre de systèmes moins sensibles. Certains systèmes particulièrement dangereux sont quant à eux interdits par le RIA. En comparaison, la Corée du Sud ne prévoit aucune interdiction dans son « AI Basic Act », qui arbore pourtant beaucoup de similarités avec le RIA. Le Royaume-Uni, de son côté, privilégie une régulation par secteur. A ce jour, le Japon, comme de nombreux autres acteurs, ne possède pas de loi spécifique pour l’IA, mais n’exclut pas la possibilité d’un cadre contraignant pour l’IA à l’avenir.
Comment expliquer ces disparités ? La première raison réside dans l’absence de vision commune. Aux États-Unis, le gouvernement est peu enclin à imposer des règles susceptibles de ralentir la croissance de sa puissante industrie numérique. En Europe, l’accent est mis sur la préservation des droits fondamentaux, en Afrique l’IA doit participer au développement du continent et à la sauvegarde des diverses cultures tandis que la stabilité intérieure prévaut en Chine, où l’IAG fait déjà l’objet de plusieurs réglementations. La diversité des applications de la technologie explique également ces disparités. Les droits d’auteur, la protection des données, le droit de la concurrence, ou le droit du travail sont autant de cadres juridiques touchés par l’IA, dont les modalités d’application peuvent varier grandement entre juridictions. Cela signifie aussi que l’urgence de la régulation peut être ressentie différemment selon la maturité des cadres juridiques mobilisés. De plus, des inégalités structurelles existent entre pays, certains passant à côté de la révolution de l’IA. L’ONU, au travers de son Digital Compact, entend s’assurer que les intérêts des États moins développés ne soient pas oubliés dans la gouvernance internationale de l’IA.
Devant une telle disparité des intérêts, il faudra se résoudre à faire des compromis. Cependant plus les compromis sont importants, moins les instruments auront d’impact. L’exemple de la Convention du Conseil de l’Europe est particulièrement parlant. Ouverte à tous sans contraintes de location géographique, la Convention demeure normativement légère, ses vagues formulations et exceptions pour le domaine de la défense sont les résultats d’une politique de compromis visant à s’assurer les faveurs du plus grand nombre.
Pour ces raisons, une coopération internationale pour l’établissement d’un cadre réglementaire compréhensif pour l’IA et aussi sophistiqué que le RIA me semble improbable. Je suis en revanche optimiste en ce qui concerne la perspective d’une coopération internationale restreinte à des aspects particuliers de la technologie, telle que la transparence ou la propriété artistique.