ActualitésGéopolitique & Relations InternationalesMondialisation et enjeuxSociété

Droit et éthique dans l’IA; un bilan du « AI Safety Summit » (1/2)

Shares

Les 1er et 2 novembre derniers ont vu l’Angleterre accueillir le « AI Safety Summit » au Bletchley Park, un lieu clé du débat d’idées et de la recherche sur les nouvelles technologies. Proposée par le premier ministre Rishi Sunak, l’initiative avait pour but d’offrir une instance de discussion aux acteurs majeurs du digital afin de discuter des risques liés au développement des systèmes d’intelligence artificielle (IA) et de préparer le futur de la réglementation. Alors que le développement et la généralisation des systèmes d’IA soulèvent des questions éthiques et légales importantes, quel bilan tirer de ce sommet qui se veut le premier d’une longue série ?

Un attrait toujours plus croissant pour l’IA

Les modèles d’IA dit d’avant-garde suscitent autant d’engouement que d’inquiétude.

Bien que la conférence de Dartmouth College de 1956 soit considérée comme le point de départ de la recherche sur l’IA par la plupart des spécialistes, il faudra attendre les années 1990 pour que le sujet reçoive l’attention qu’il mérite. D’abord boudée par les pouvoirs publics et limitée par la technologie de l’époque, la recherche sur l’IA connaitra un regain de popularité après que l’IA d’IBM « Deep Blue » ait battu le champion mondial d’échecs Garry Kasparov. Le sujet prendra une ampleur inédite à partir des années 2000, résultante de progrès significatifs et d’une prise de conscience collective des avantages de la technologie.

Aujourd’hui le monde anticipe avec appréhension l’arrivée des modèles dit « d’avant-garde » en anglais Frontier AI. Le terme désigne un type de modèles particulièrement sophistiqués pouvant poser des risques graves pour la sécurité publique. C’est d’ailleurs avec ces modèles futurs en ligne de mire que Londres a organisé le AI Safety Summit.

Ainsi, depuis plus de 20 ans l’IA est perçue comme un véritable phénomène transformatif, capable de révolutions dans de nombreux domaines. L’essor de l’IA générative, une intelligence capable de générer des textes, images, et pistes audios sur la base d’instructions, a marqué les débuts de l’IA « tout public. » Aujourd’hui, startup, géants du numérique et États, investissent massivement dans la technologie, capitalisant sur la perspective de bénéfices monétaires, et d’avantages stratégiques et militaires considérables. Mais derrière un marché plus que prometteur se cachent des enjeux légaux et éthiques qui ne peuvent être ignorés.

L’IA dans la controverse

En 2017 l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO)  se penche sérieusement sur la protection des droits fondamentaux dans le cadre de l’IA. Pour Xianhong Hu, responsable du projet Internet Universality à l’UNESCO, il est crucial de veiller à ce que le développement de l’IA se fasse dans le respect des valeurs portées par le principe de l’universalité d’internet. C’est-à-dire dans le respect des droits de l’Homme, des principes d’accessibilité, d’ouverture et de participation multipartite. L’UNESCO réitère son message en 2020. Entre temps, plusieurs organisations adoptèrent la déclaration de Toronto, qui précise la relation entre l’IA et les droits fondamentaux. En 2019, l’Organisation de coopération et de développement économiques adopta les 5 «Principes sur l’IA» repris la même année par le G20. Les 193 États membres des Nations Unies adopteront une recommandation sur l’éthique dans l’IA en 2021, sans parvenir à chasser les inquiétudes.

Plus tôt cette année, une pétition signée par des grands noms du digital recevait une forte attention médiatique. La pétition qui à ce jour rassemble plus de 30 000 signataires demandait un moratoire d’au moins 6 mois dans le développement de l’IA. Pour ses auteurs, la recherche ne pourrait reprendre que lorsqu’un processus rigoureux d’évaluation des risques soit mis en place. Un mois plus tard, l’ONG LAION appelait quant à elle les gouvernements à assurer la transparence et l’accessibilité de la recherche sur l’IA. Dans sa pétition, LAION dénonçait également la captation de la recherche par de grands acteurs du digital privilégiant le profit à l’inclusivité.

En octobre, l’Organisation des Nations unies se dota d’un comité consultatif sur l’IA chargé d’identifier les risques de violation des droits de l’homme et de faire des recommandations sur l’encadrement de la technologie. Mais de quels risques parle-t-on exactement ?

L’IA et les droits fondamentaux

Si la technologie est source de nouveaux problèmes, l’IA exacerbe aussi des risques bien connus. Cependant il est difficile d’établir une liste exhaustive des implications en termes de droits fondamentaux, tant les usages de l’IA sont nombreux. Certaines inquiétudes reviennent toutefois souvent dans les débats ;

D’abord, le Haut-Commissariat aux droits de l’Homme a souvent alerté sur les risques d’atteintes au droit à la vie privée liés à l’utilisation de modèles destinés à la captation et l’analyse de quantités importantes de données personnelles afin d’en inférer de l’information. Des violations de la vie privée pourraient résulter, entre autres, de la reproduction de biais par l’IA, de la commission d’erreurs, du degré de précision des données collectées, et de l’utilisation abusive de la technologie par les États. Les atteintes au droit à la vie privée peuvent avoir des répercussions indirectes sur d’autres valeurs dont le droit à la santé, à un procès équitable ou le principe de non-discrimination.

Il y a ensuite des risques d’atteintes à la liberté d’opinion, d’expression et à la réputation causés par la désinformation. En effet, l’IA générative est de plus en plus capable de produire des faux médias extrêmement convaincants. L’IA permet aussi d’optimiser les systèmes de recommandation de contenus. Cela pourrait favoriser l’effet addictif des plateformes et la formation de bulles informationnelles.

À ceux-ci s’ajoutent les risques existentiels d’escalade incontrôlée de la violence débouchant sur un conflit majeur, ou de perte totale d’emprise face à une IA ultrasophistiquée. Bien que le risque existentiel prête à controverse, il convient de noter qu’une part non négligeable des investissements touche au domaine militaire. L’usage de l’IA dans la guerre soulève des questions de droit humanitaire cruciales encore non résolues.

Conclusion de la première partie

Ces récentes années de nombreux acteurs ont alerté sur les implications éthiques et juridiques liées à l’influence grandissante de l’IA dans l’activité humaine. Cela va motiver de nombreuses initiatives à travers le monde. Plusieurs États dont la Chine, les États-Unis, l’Inde et la France ont commencé à légiférer sur la question. En Europe, le tout premier cadre règlementaire pour l’IA, le AI Act est entré en phase de discussion au Conseil de l’Union européenne. Critiquées pour leurs effets potentiellement néfastes sur le marché, ces réactions mettent surtout en péril la perspective d’une gouvernance globale pour l’IA.

C’est donc dans un contexte de multiplication des initiatives consacrées à la régulation de la technologie que s’inscrivait le premier AI Safety Summit. Le cadre étant posé, la seconde partie reviendra sur les promesses du sommet et en tirera un bilan. En conclusion, la seconde partie proposera une réflexion plus générale sur l’avenir de la règlementation sur l’IA.

Shares

William LETRONE

William Letrone est chercheur postdoc au CNRS, au sein de l'unité DCS de l'université de Nantes. Il est membre du projet iPOP, et travaille actuellement sur les questions juridiques liées aux menaces cyber et à l'intelligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *