L’UE impose une régulation aux réseaux sociaux comme Facebook, Instagram, Twitter ou TikTok, et aux sites de vente en ligne comme Amazon ou Leboncoin
Avec le Digital Services Act, les pratiques de modération des contenus des grands services numériques seront surveillées par Bruxelles, qui pourra infliger de lourdes sanctions.
C’est un moment « historique » pour la régulation du numérique : le commissaire au marché intérieur, Thierry Breton, ne cache pas sa satisfaction d’avoir bouclé, samedi 23 avril, à Bruxelles, après seize heures de négociation, un accord politique sur le règlement européen Digital Services Act (DSA).
Adopté un mois après le Digital Markets Act, un texte « économique » destiné à imposer aux plates-formes dominantes le respect de leurs concurrents, le DSA vise, lui, à réduire les risques pour la « société », en imposant des devoirs aux réseaux sociaux comme Facebook, Instagram, Twitter ou TikTok et aux places de marché de vente en ligne comme Amazon ou Leboncoin. « Ces textes sont deux faces d’une même pièce », estime M. Breton. Le DSA devrait entrer en vigueur début 2023.
Ce règlement est aussi une victoire politique pour la France, qui espérait obtenir un accord avant la fin de sa présidence du Conseil de l’Union européenne (UE) prévue mi-juin.
Ces auteurs ambitionnent de mettre à jour, « pour les vingt années à venir », la régulation du Web, en vigueur en Europe depuis la directive sur le commerce électronique, adoptée en l’an 2000, quand Facebook n’existait pas et Amazon venait à peine d’ouvrir en France. En effet, pour certains, ce texte fondateur a laissé trop de liberté aux géants du numérique, car il exonère les hébergeurs de responsabilités pour les contenus postés par des tiers, tant qu’on ne leur a pas notifié.
Mais, rétorquent d’autres, rendre responsables les plates-formes ou les forcer à retirer sous vingt-quatre heures les contenus problématiques mettrait en danger la liberté d’expression et engendrerait une censure excessive – la proposition de loi de la députée (LRM) Laetitia Avia a été rejetée en 2019 par le Conseil constitutionnel pour ce motif.
Pour résoudre ce dilemme, le nouveau règlement européen impose des « obligations de moyens et de transparence » aux grands services. Comme les banques, ceux-ci seront tenus de mener périodiquement des « évaluations des risques », puis de proposer des mesures. Les domaines visés pour l’heure sont la lutte contre les contenus illégaux (incitations à la haine, produits dangereux ou contrefaits…), les atteintes aux processus électoraux (désinformation…), les atteintes à la liberté d’expression (afin d’éviter la surcensure) et les atteintes aux mineurs et à leur santé mentale. Tous sont liés à la charte des droits humains.
« Compensation » pour le consommateur lésé
Les grandes plates-formes ont déjà des politiques de modération des contenus, mais, désormais, les moyens alloués et les résultats seront évalués par la Commission européenne. Celle-ci pourra leur infliger des amendes allant jusqu’à 6 % de leur chiffre d’affaires, voire les interdire dans l’UE.
Dans la dernière ligne droite, les colégislateurs ont ajouté une « procédure d’urgence » pour demander une évaluation des risques sur un sujet imprévu. Comme cela a été fait de façon informelle pendant la guerre en Ukraine, contre la désinformation, ou pendant la pandémie de Covid-19, contre les masques et les médicaments non homologués. Les plates-formes seront aussi tenues d’être « transparentes » sur les algorithmes utilisés pour classer ou recommander les contenus et devront permettre aux utilisateurs de les désactiver.
Des obligations minimales s’imposeront à tous les services, mais les plus lourdes viseront ceux ayant plus de 45 millions « d’utilisateurs » dans l’UE. Soit « 25 à 30 services, américains, européens, chinois et japonais », selon la Commission : des réseaux sociaux, mais aussi la plate-forme de vidéos YouTube, des sites de vente comme Amazon, Rakuten, Leboncoin, Booking ou eBay, les moteurs de recherche comme Google, ainsi que des services pornographiques comme Pornhub.
Du côté de l’e-commerce, les plates-formes devront « connaître » l’identité des vendeurs et obtenir les informations légales sur les produits. Un consommateur lésé pourra leur demander une « compensation » si le vendeur est défaillant.
L’Europe espère faire du DSA un standard mondial
Le DSA interdit aussi la publicité ciblée visant des caractéristiques sensibles (orientation sexuelle ou politique, religion…) ou à destination des mineurs. Les services devront prendre des mesures de protection des enfants (par exemple, empêcher les messages directs venant d’utilisateurs inconnus). Sont aussi proscrits les « dark patterns », ces interfaces trompeuses destinées à manipuler l’internaute, par exemple, en rendant beaucoup moins visible et accessible le bouton pour refuser la publicité ciblée. Une mesure vise aussi le « revenge porn », ces vidéos pornographiques mises en ligne sans le consentement des intéressés.
La mise en œuvre sera un vrai défi : 150 experts environ y travailleront, avec un budget autour de 30 millions d’euros, financé par une « redevance » acquittée par les plates-formes.
La modération des réseaux sociaux est aussi en débat aux Etats-Unis : soutenu par les républicains et par Donald Trump, le patron de Tesla, Elon Musk, propose ainsi de racheter Twitter pour y faire régner la « liberté d’expression ». L’Europe espère, elle, faire du DSA un standard mondial, comme le règlement européen sur la protection des données (RGPD).
Jeudi 21 avril, l’ancien président américain Barack Obama a appelé les Etats-Unis à s’inspirer de ce texte, comme le réclament des parlementaires ou l’ex-employée de Facebook devenue lanceuse d’alerte Frances Haugen. En Europe, l’association European Digital Rights s’est toutefois inquiétée du grand pouvoir accordé à la Commission, notamment dans la procédure d’urgence, et a réclamé des « garde-fous » pour préserver la liberté d’expression.
Alexandre Piquard, Le Monde, 23 avril 2022.