ActualitésEuropeEx-monde socialisteSujets chaudsUkraine

L’UE durcit le ton face à la désinformation en ligne (3/3)

Shares

Fin juillet la Cour de Justice de l’Union européenne confirmait la décision de l’UE d’imposer un ban temporaire à certains médias russes dans son espace médiatique. La première partie de cette analyse revenait sur le contexte de cette décision. La seconde partie profitait de l’occasion pour explorer le droit international applicable aux opérations de désinformation. Entre temps, l’UE a adopté le Digital Services Act (DSA), un outil normatif obligeant les grands acteurs du numérique à implémenter de nouvelles mesures de protections des droits fondamentaux en ligne. Le DSA sera pleinement applicable en février 2023. Le règlement est intéressant à plusieurs égards. Il s’agit, entre autres, d’un moyen de lutte contre la désinformation en ligne qui s’applique aux vecteurs plutôt qu’aux sources de l’information. Cette troisième partie est donc consacrée au DSA et à ce que son adoption signifie pour la lutte contre la désinformation en ligne.

Les rôles du DSA

En 2021, Frances Haugen, ex-employée à Meta, alertait de graves négligences dans la modération de contenu de la plateforme.
En 2021, Frances Haugen, ex-employée à Meta, alertait de graves négligences dans la modération du contenu présent sur la plateforme.

Le DSA procède du besoin de responsabiliser les acteurs du numérique à hauteur de leur impact dans les sociétés contemporaines. Depuis le début des années 2010, certains acteurs du numérique, notamment les réseaux sociaux, ont connu une croissance exponentielle. Aujourd’hui, près de 60% de la population mondiale utilise un ou plusieurs réseaux sociaux et qu’un utilisateur passe en moyenne 2h30 par jour sur les plateformes.

Les grands acteurs du numérique ont une influence considérable sur la vie des utilisateurs. Malheureusement, outre les problèmes d’addiction, les pratiques manipulatives, qu’elles soient conduites à des fins mercantiles ou politiques pullulent sur les plateformes. Peuvent êtres citées, à titre d’exemple, les opérations de « drop shipping » impliquant des influenceurs peu scrupuleux ou les opération de désinformation sponsorisées par les Etats en vue d’interférer dans la vie politique d’autres Etats.

En effet, certains usages des réseaux sociaux se font en contradiction totale avec le droit à la vie privée, de la santé, de la liberté d’opinion, et même du droit à l’autodétermination des utilisateurs. C’est avec en ligne de mire certaines pratiques manipulatoires déployées en ligne que l’Union européenne a adopté le DSA. Le DSA a vocation à s’appliquer à tout « fournisseurs de service d’hébergement » aillant une activité en Europe. Parmi les plus importants acteurs, le règlement s’appliquera aux sociétés Meta (Facebook, Instagram) Google (Google search, Youtube), Twitter et ByteDance (Tiktok).

L’évaluation et l’atténuation des « risques systémiques »

Le règlement impose aux intermédiaires du numérique des devoirs d’intensité variable en fonction de leur taille. Seulement les « très grandes plateformes » se voient soumises aux obligations les plus strictes en matière d’évaluation et d’atténuation des « risques systémiques » découlant de la conception et de l’utilisation de leurs services. Les acteurs concernés pourront se voir infliger de fortes pénalités financières en cas de négligence répétées dans l’évaluation et l’atténuation des risques. C’est sur les plus grandes plateformes que la Commission européenne exercera le plus de pouvoir de supervision.

Le DSA reconnait la diffusion de « contenus illicites » en ligne comme principale source de risque systémique. Cela inclut notamment les incitations à la haine et la propagande terroriste. La catégorie inclue également des informations qui « se rapportent à une pratique illégale » telle que la publicité pour des produits contrefaits et le cyberharcèlement.

Le DSA considère d’autres types de risques à plus long terme. Cela concerne la corruption des processus démocratiques, les effets néfastes sur la santé, la vie privée et le bien-être mental des utilisateurs. La désinformation, comme toute pratiques manipulatoires, peut contribuer à ces risques. Il est cependant regrettable qu’aucune mention ne soit faite des risques écologiques tels que le réchauffement climatique, que la désinformation climatique contribue également à accentuer.

Les plateformes seront tenues d’agir impérativement contre les contenus manifestement illicites. En revanche, toute contenu contribuant aux risques mentionnés ne requiert pas forcément le même type de modération.

La consécration d’un devoir de vigilance pour les acteurs du numérique

Le DSA instaure un régime de responsabilité applicable aux vecteurs de l’information. Ainsi, en vertu du DSA, les grandes plateformes doivent faire preuve de diligence dans l’évaluation et l’atténuation des risques systémiques. Cela signifie que la modération des contenus doit se faire de manière proportionnelle à l’intensité et l’immédiateté du risque encouru. Plus important, elle doit se faire dans le respect de la liberté d’expression des utilisateurs. Sur ce point, il n’est pas question d’encourager la modération par la suppression de contenu. Le DSA met plutôt l’accent sur la façon dont l’information est transmise et présentée aux utilisateurs.

Les Articles 25, 26 et 27 du DSA interdisent donc respectivement les interfaces pouvant entrainer une dépendance, les pratiques publicitaires non transparentes, le profilage par la collecte de certaines informations personnelles, et les systèmes de recommandation opaques. Le DSA enjoint également les grandes plateformes à respecter le Code de Bonne Pratique en Matière de Désinformation. Préparé plus tôt en 2022, le code impose notamment la suppression des incitation financières à la désinformation et la systématisation du « fact checking. » Ces mesures sont essentielles, la rapporteuse pour la promotion de la liberté d’expression et d’opinion aux Nations Unies avait d’ailleurs souligné: « [E]n concevant des produits à fort degré de personnalisation du contenu afin d’encourager un usage addictif, les entreprises favorisent encore plus un système qui amoindrit sensiblement le libre arbitre des personnes en matière de consommation dinformation. »

Bien qu’il ne porte pas exclusivement sur la désinformation, le DSA est un outil important de lutte contre celle-ci. Certaines des mesures prévues devraient par exemple permettre de limiter le phénomène de « bulles informationnelles », lorsque les algorithmes de recommandation des plateformes coupent les utilisateurs à leur insu, de l’accès à une pluralité d’information.

A terme, le DSA pourrait même rendre les sociétés européennes moins vulnérables aux tentatives de déstabilisation par des acteurs étrangers.

Conclusion

En s’attaquant aux vecteurs de l’information plutôt qu’aux sources, l’UE opère un changement d’approche face à la désinformation en ligne. Ce changement permet de contourner les problèmes inhérents à l’application du droit international à la désinformation sponsorisée par des états. Reste qu’un tel instrument normatif ne saurait à lui seul pallier au déficit de cadre législatif international en ce qui concerne l’usage malveillant d’internet par des acteurs étatiques. En effet, si le DSA permettrait de rendre la manipulation en ligne plus compliquée, il ne résout pas le problème d’impunité qui entoure certaines pratiques.

Bien que la guerre de l’information ait toujours existée, elle s’est systématisée depuis l’avènement d’internet. D’un côté les nouvelles technologies de l’information et de la communication rendent les sociétés modernes particulièrement vulnérables à la manipulation. De l’autre, les acteurs étatiques jouissent d’une liberté quasi-totale en matière de conduite d’opérations d’influence. Il est donc temps de responsabiliser les Etats en matière de conduite d’opération d’influence en ligne. S’il n’est ni opportun, ni même réaliste d’interdire la guerre de l’information, il y a un besoin d’en clarifier les limites. Cela requiert de préciser les conditions d’applications du droit international aux opérations d’influence sponsorisées par les états. Pour cela, la piste des droits de l’homme doit être privilégiée. Plus particulièrement, il faut accorder une attention particulière au droit à la liberté d’opinion et à l’autodétermination des utilisateurs.

Pour conclure, il y a un besoin réel de développer un devoir de vigilance en ce qui concerne la prévention de violations des droits de l’Homme résultant des opérations d’influence en ligne. En ce sens, le DSA indique aux états membres les mesures qu’ils sont en droit d’imposer aux plateformes. Mais quid d’un devoir de vigilance applicable aux états vis à vis de leurs propres opérations d’influence? Un tel devoir pourrait inclure une obligation d’audit de leurs capacités d’influence en ligne, une obligation de transparence, et un devoir de coopération lorsqu’un état tier déclare être la cible d’opérations de désinformation initiées depuis l’étrangers. Ce devoir opérerait vis à vis des opérations d’influence ciblant leurs propres populations et des opérations ciblant les populations étrangères.

References

Luke Munn, « Angry by design: toxic communication and technical architectures » (2020), 7(53) Humanities and Social Sciences Communications.

Rapport de la Rapporteuse spéciale sur la promotion et la protection du droit à la liberté dopinion et dexpression, Irene Khan, (2021), A/HRC/47/25.

Règlement (UE) 2022/2065 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE.

Pour aller plus loin

Kate Jones, « Online Disinformation and Political Discourse: Applying a Human Rights Framework » (2019), Chatham House, Research Paper.

William Letrone, « The question of the legality of foreign disinformation campaigns; navigating troubled waters » (2022), 30 Journal of International Cooperation Studies 85.

Shares

William LETRONE

William Letrone est chercheur postdoc au CNRS. Il est spécialisé dans les questions juridiques liées aux menaces cyber, et à l'intelligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *