Les Yeux du Monde

Actualité internationale et géopolitique

ActualitésGéopolitique & Relations InternationalesMondialisation et enjeuxSociété

Droit et éthique dans l’IA; un bilan du « AI Safety Summit » (2/2)

Shares

Il a été vu dans une première partie que le AI Safety Summit proposé par le Premier ministre britannique Rishi Sunak s’inscrivait dans un contexte de multiplication des initiatives nationales et régionales destinées à règlementer l’IA. Le Sommet s’est donc tenu les 1er et 2 novembre derniers, rassemblant membres de la société civile, entrepreneurs du secteur, et représentants de quelques 28 États. Du sommet en ressortira une déclaration ; la « Bletchley Declaration on AI safety». Pour autant l’évènement a fait l’objet de nombreuses critiques. Alors peut-on réellement parler de « succès » ?

Les promesses du Sommet

Les participants du sommet se sont mis d'accord sur un programme d'essais de sureté pour les systèmes d'IA d'avant-garde
Les participants du sommet se sont mis d’accord sur un programme d’essais de sûreté pour les systèmes d’IA d’avant-garde.

Le droit international ne parviendra certainement pas à s’adapter rapidement à l’IA et aux nombreux changements que la technologie va entrainer. La création de droit est un processus long et complexe qui repose sur la capacité des principaux acteurs à achever une compréhension commune des enjeux et de la manière de les traiter. Cet impératif de consensus, Londres semble l’avoir bien compris. « Il est important que nous établissions une compréhension commune des risques, afin que nous soyons en mesure de coordonner efficacement la prévention et l’atténuation de ces risques le mieux possible » pouvait-on lire en conclusion du document de travail distribué avant le sommet.

Parmi les cinq objectifs posés par le gouvernement britannique pour le sommet figuraient également l’amorce d’un processus de collaboration internationale sur la réglementation de l’IA d’avant-garde et l’identification de domaines de collaboration spécifiques. Si la présence de pays réputés pour leurs postures autoritaristes pouvait prêter à débat, Londres a tout de même cherché à rassembler, ce qui était essentiel, compte tenu des objectifs avancés.

Bien sûr l’évènement s’inscrivait aussi dans la continuité des efforts du Royaume-Uni de se présenter en tant qu’acteur de premier plan de la gouvernance internationale de l’IA. Le pays s’était déjà démarqué l’année dernière en créant le AI Standard Hub, un espace de recherche rassemblant chercheurs et experts de l’IA. Peu avant le sommet, Rishi Sunak avait d’ailleurs appuyé que le Royaume-Uni était le pays qui avait le plus investi dans la sécurité de l’IA dans le monde. En revanche, au-delà de la symbolique politique et des bonnes intentions, les critiques ont ciblé un certain nombre de problèmes.

Un bilan en demi-teinte

Pendant deux jours les convives ont donc pu échanger sur les thèmes prévus et ont partagé leurs visions de la sécurité de l’IA. Les représentants des gouvernements présents ont fait part des initiatives nationales en place et Antonio Guterres, le secrétaire général des Nations Unies, a profité de l’occasion pour parler du Multistakeholder Advisory Body on Artificial Intelligence initié tout juste une semaine avant le sommet. Avancée la plus significative, les participants du sommet se sont mis d’accord sur un programme d’essais de sûreté pour les systèmes d’IA d’avant-garde.

Bien que le sommet soit un succès diplomatique, il lui a d’abord été beaucoup reproché de s’être trop concentré sur l’IA d’avant-garde et les risques existentiels liés à la technologie aux dépens des problèmes concrets déjà rencontrés dans le contexte des modèles actuels. Cette orientation aurait ainsi contribué à minimiser le besoin immédiat de règlementation pour l’IA. Le catastrophisme concernant l’IA tend à détourner l’attention du public de problèmes de fond tels que son impact environnemental ou la formation de monopoles.

La surreprésentation des grandes multinationales lors du Sommet a aussi fait réagir. En effet, la société civile et le monde académique s’inquiètent du lobby des géants de l’IA. Le Sommet n’est pas parvenu à rassurer sur ce point.

L’on pourrait enfin regretter le caractère superficiel de la Bletchley Declaration on AI safety, qui se contente de saluer les efforts déjà déployés et encourage la collaboration dans la recherche et l’identification des risques dans le domaine de l’IA d’avant-garde. Il convient néanmoins de relativiser ce manque de substance. Il ne s’agit que de la première version du sommet et l’on peut donc espérer des développements plus concrets au cours des prochaines années.

Quel avenir pour la règlementation internationale de l’IA ?

Malgré ses défauts, le AI Safety Summit consolide un processus commun de gouvernance bienvenu puisqu’à ce jour aucun cadre règlementaire dédié à l’IA n’existe. Au surplus, le sommet fournira une instance de discussion pour les acteurs du monde de l’IA, et son succès dépendra de la capacité des convives à transcender leurs intérêts propres. Notons d’ailleurs que la forme assez légère de la Bletchley Declaration est aussi ce qui lui a permis de recueillir autant de signatures. Cela laisse cependant craindre des difficultés à rassembler à l’avenir, lorsque les participants seront plus nombreux et les attentes plus élevées. Dans la lignée des débats sur le droit des actes cyber, il est par exemple très probable que des désaccords voient le jour concernant la réglementation des usages de l’IA dans la guerre.

Il y a une asymétrie considérable parmi les protagonistes. Même pris individuellement, les géants du digital accumulent déjà plus de valeur que certains pays. Les profits permis par l’IA vont leur permettre de creuser le fossé, remettant en cause le concept même de souveraineté étatique. De leurs côtés, les États, dépositaires de la puissance publique, jouent déjà un numéro d’équilibriste en cherchant à favoriser les investissements et à limiter la puissance des grandes sociétés tout en satisfaisant les atteintes de la société civile. Dans ce puzzle, cette dernière doit se faire entendre.

Il est crucial que la société civile soit impliquée dans le processus de régulation. En pratique, cela pourrait se faire via un système de consultation publique pour les phases de développement et de test, d’où l’intérêt de l’open source. Les législations elles-mêmes devront être testées, et ne devront pas non plus se faire au détriment des droits fondamentaux.

Conclusion générale

Il est encore trop tôt pour évaluer l’impact du sommet. Beaucoup d’incertitudes demeurent. Les divergences nationales dans la façon d’encadrer l’IA seront difficiles à surmonter. Mais si certaines préférences locales vont forcément influer sur la réglementation, les enjeux en termes de protection des droits fondamentaux demeurent, eux, les mêmes pour tous.

La technologie nécessite-t-elle de revoir le concept de consentement à la captation des données personnelles ? Qu’est-ce que l’implication de l’IA dans un dommage va changer en matière de chaine de responsabilité ? A quel point peut-on se passer de l’action humaine ? Comment éviter l’aliénation de l’humain à l’ère de l’ultra-personnalisation de l’expérience web ? L’IA soulève des questions fondamentales qui appellent à une réponse concertée globale. Reste à espérer que les convives du sommet ne se contentent pas d’y faire bonne figure. Rendez-vous donc dans un an, à Paris, pour le vérifier.

Références

“Human Rights in the age of artificial intelligence” (2018) AccessNow.

Chair’s Summary of the AI Safety Summit 2023, Bletchley Park – GOV.UK (www.gov.uk)

James Moor, « The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years » (2006) AI Magazine, Vol 27, Number 4.

Mathias Risse, “Artificial Intelligence and the Past, Present, and Future of Democracy” (2021) Carr Center for Human Rights Policy Harvard Kennedy School, Harvard University.

McCarthy-Jones, Simon, “The Autonomous Mind: The Right to Freedom of Thought in the 21st Century” (2019) Frontiers in Artificial Intelligence, Vol 2. Article 19.

Araz Taeihagh, “Governance of artificial intelligence, Policy and Society” (2021) Vol 40, Issue 2.

Shares

William LETRONE

William Letrone est chercheur postdoc au CNRS, au sein de l'unité DCS de l'université de Nantes. Il est membre du projet iPOP, et travaille actuellement sur les questions juridiques liées aux menaces cyber et à l'intelligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *