Le témoignage de Mark Zuckerberg, PDG de Facebook devant le congrès américain en 2018 a lieu après l'éclatement des scandales de Cambridge Analytica - entreprise d'analyse de données accusée d'avoir organisé la collecte de 87 millions de données utilisateurs de la plateforme Facebook dans le but de cibler des messages favorables à l'élection du 45ème président des Etats-Unis Donald Trump et de favoriser le Brexit, influençant le vote pour un départ du Royaume-Uni de la Communauté Européenne. Mark Zuckerberg a déclaré à son audition qu'il n'est pas très familier avec le "langage spécifique du droit" et qu'il "expose simplement la manière dont il voit les choses au sens large" en déterminant l'interdiction des discours haineux, contenus terroristes ou de nudité afin de ne pas heurter la communauté d'utilisateurs Facebook.
Mr Zuckerberg; stratégiquement, a évité d'aborder la question de la responsabilité au titre de l'article 230 du Communication Decency Act (CDA) des Etats-Unis. Cet article stipule que les utilisateurs de « services informatiques interactifs », incluant les géants du web, ne peuvent être traités comme des éditeurs de contenu puisque ceux-ci sont écrits par des tiers. L'article 230 est considéré aux Etats-Unis comme l'article fondateur de l'écosystème des grandes entreprises de l'internet.
Les questions soulevés par le sénateur Cruz au PDG Zuckerberg soulève des problèmes pratiques et théoriques déterminant la réglementation des plateformes numérique.
- La première série de questions vise à établir la pertinence publique de ces plateformes en raison de leur impact sur nos systèmes démocratiques. Ces grandes entreprises du web présentées comme des acteurs techniques et privés seraient capables d'échapper aux réglementations ou d'établir leurs propres normes en matière de droits indépendamment des différentes interprétations constitutionnelles ?
- La modération des contenus représente un aspect essentiel des activités des plateformes. Elle est centrée sur comment maintenir la liberté d'expression en linge ? en marginalisant les discours nuisibles ou illégaux. Comment façonner le pouvoir et le contrôle des plateformes de la diffusion de leur contenu ?
- Quelle est la part de réglementation des plateformes (par exemple: autorégulation, corégulation, normes juridiques obligatoires) et quelle est la part de l'Etat. Lorsque les discours légalement protégés sont délégués à des acteurs privés, cela soulève la question de ce qu'il advient des garanties de l'Etat et de la dimension normative de la liberté d'expression.
En bref, comment préserver la liberté d'expression sur les plateformes du numérique et sa relation avec l'Etat de droit ?
Ces questions s'inscrivent dans un débat général sur la nature de ces intermédiaires aux contenus fluides et évolutifs. Initialement construits comme de simples supports neutres de contenu créés par des tiers, ils sont aujourd'hui des médias de masse, diffuseurs d'opinions publiques. S'accrocher aujourd'hui à l'idée que ces plateformes n'ont pas de responsabilités éditoriales devient irréalistes. Ces plateformes modèrent, classent les contenus sur la base d'algorithmes, de profilage des données et influencent considérablement les utilisateurs dans leur accès à l'information en ligne comme tout type de médias.
A ce jour, en Europe, les intermédiaires de l'internet s'inscrivent dans la Directive sur les Commerces Electroniques (e-Commerce Directive, 2000). Ces plateformes appliquent toujours les concepts de neutralité et d'absences d'obligations de surveillance de contenus. Le cadre juridique de l'UE tend à se développer sur les problèmes théoriques que les intermédiaires de l'internet mettent en lumière, en soulignant l'importance de la relation entre la liberté d'expression et l'Etat de droit.