SOCIÉTÉ

Plateformes numériques : « toute la difficulté est de définir les limites de la liberté d’expression »

Plateformes numériques : « toute la difficulté est de définir les limites de la liberté d’expression »
Publié le 01/10/2024 à 13:41

Alors que près de la moitié de la population mondiale échange des opinions sur des plateformes numériques, l'usage de celles-ci va de pair avec de nombreux débats autour de la liberté d'expression. Cette dernière « vaut aussi pour les idées qui heurtent, choquent ou inquiètent », est-il rappelé lors d’un colloque à la Cour de cassation. Toutefois, la législation existante s’adapte progressivement aux « codes de langage propres aux réseaux sociaux ».

Les défenses se prévalant de la liberté d’expression - et notamment en ligne - ne manquent pas. Récemment, c’est le patron de X (ex-Twitter), Elon Musk, qui s’est empressé de l’invoquer, estimant que l’arrestation du fondateur franco-russe de l’application de messagerie instantanée Telegram, Pavel Durov, en août dernier, constituait une censure, la plateforme étant devenue le « refuge des voix antisystèmes », comme l’a qualifiée Le Monde.

Mais de quoi parle-t-on vraiment quand on évoque cette notion à l’ère du numérique ? Lors d'un colloque à la Cour de cassation, le 20 septembre dernier, Delphine Bastien, avocate au barreau de Paris, pointait notamment l’influence du premier amendement de la Constitution américaine, du fait du grand nombre de plateformes américaines. Dans l’actualité juridique française récente, elle évoque la décision de censure prononcée par le Conseil constitutionnel, à l’égard de la loi Avia, dans laquelle l'instance a affirmé qu’ « eu égard au développement généralisé des services de communication au public en ligne ainsi qu’à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions, ce droit d'expression implique la liberté d'accéder à ces services en ligne et de s'y exprimer ».

De son côté, Thibault Guiroy, directeur des affaires publiques de YouTube France, souligne que la liberté d’expression vaut « non seulement pour les informations ou idées accueillies avec faveur ou considérées comme inoffensives ou indifférentes », mais aussi pour les idées « qui heurtent, choquent ou inquiètent l'État ou une fraction quelconque de la population ». C’est le contenu de l’arrêt Handyside, d’une étonnante actualité, bien qu’il ait été rendu par la Cour européenne des droits de l’homme en 1976.

La législation doit s’adapter aux « codes de langage particuliers »

Mais s’il est bien connu que la liberté des uns s’arrête là où commence celle des autres, qu’en est-il avec la liberté d’expression ? Le modérateur de la conférence, Guilhem Julia, maître de conférences en droit privé à l’Université Sorbonne Paris-Nord, ouvre le débat en se souvenant qu’étudiant, il avait appris « que les abus ne pouvaient concerner que le droit, et qu’il ne pouvait pas y avoir d’abus de liberté »

Admettant néanmoins que « toute la difficulté est de définir les limites de cette liberté », Delphine Bastien explique qu’elles sont prévues par la loi, et « éclairées par la jurisprudence ». L’avocate insiste sur la difficulté de définir juridiquement la liberté d’expression, et devant chaque cas, « la nécessité d’un examen au fond détaillé ».

Cela d’autant plus que la loi du 29 juillet 1881 sur la liberté de la presse vise principalement les journalistes professionnels et les éditeurs de presse, mais elle a « pourtant vocation à s'appliquer pour sanctionner les abus de la liberté d'expression sur Internet ». Et pour ce faire, la législation doit s’adapter à ses « codes de langage particuliers » : ceux « propres aux réseaux sociaux », des « messages très courts », souvent « insérés dans des files de discussion parfois assez désordonnées ».

La liberté d’expression est ainsi régulièrement mise en balance dans les procès pour diffamation.  Fait marquant, face au phénomène #balancetonporc et à une série de plaintes dans ce cadre, dit-elle, les juges ont souvent considéré les messages associés à ce hashtag comme des objets de discussion politique. Le 11 mai 2022, la première chambre civile de la Cour de cassation a en effet retenu que le tweet de Sandra Muller, journaliste à l’origine du mouvement qui, la première, a dénoncé l’agression verbale d’un patron de chaîne de télévision, contribuait à « un débat d'intérêt général sur la dénonciation de comportements à connotation sexuelle non consentis de certains hommes vis-à-vis des femmes et de nature à porter atteinte à leur dignité ».

YouTube face aux fake news

Et quid alors des fake news ? Le directeur des affaires publiques de YouTube France distingue parmi elles deux catégories. S’agissant de ceux qui proclament par exemple que la terre est plate, explique Thibault Guiroy, la plateforme se contente de « freiner » la viralité, car « ces contenus sont nocifs à partir du moment où ils acquièrent une audience et une certaine viralité ».

Deuxième catégorie, explique-t-il : la « désinformation préjudiciable qui va avoir un impact concret dans le monde réel ». Entre autres exemples, il pointe les nombreuses tentatives de manipulations des électeurs, à l’aide de diverses fausses informations. Des contenus que YouTube affirme s’employer à supprimer. En août 2023, la plateforme américaine avait annoncé qu’elle avait mis à jour ses règles et sa stratégie pour lutter contre la désinformation médicale, et qu’elle allait évincer de nombreux contenus propageant de fausses informations en la matière.

Toutefois, deux mois auparavant, elle avait indiqué mettre fin à sa politique de suppression des contenus véhiculant des fausses informations sur l’élection présidentielle américaine de 2020, estimant que « la capacité à débattre de façon libre d’idées politiques, même celles qui sont controversées ou basées sur des hypothèses fausses, est essentielle au fonctionnement d’une société démocratique ».

Avec 500 heures de vidéos mises en ligne chaque minute sur YouTube, le volume, considérable, représente un défi, d’abord d’ordre quantitatif, argue Thibault Guiroy. La modération est donc opérée à 96 % par des outils s’appuyant sur l’intelligence artificielle, mais aussi par des modérateurs dans chaque zone géographique, pour éviter de passer à côté de certaines subtilités linguistiques. Un travail qui aboutit au retrait de 7 à 9 millions de contenus vidéos par trimestre (dont 50 000 en France).

Cependant, à l’heure des buzz éclair, signalement ne vaut pas toujours abus. Selon le directeur des affaires publiques, le contenu le plus signalé par des utilisateurs de la plateforme est une vidéo de… Justin Bieber. Des dénonciations en masse aucunement liée à des propos outranciers de la vedette, mais à une opération concertée de « la communauté ennemie des fans de One Direction », visant la suppression du clip de l’artiste.

Avocat au barreau de Paris, Alexandre Mandil, rappelle quant à lui qu’en vertu du DSA (Digital services act, ou Règlement sur les services numériques en français), adopté par l’Union européenne le 19 octobre 2022, les plateformes sont tenues de publier les règles de modération qu’elles appliquent, et « doivent exprimer ou rendre transparents les motifs pour lesquels un contenu a été retiré ou un compte a été suspendu ». Ainsi, en cas de suppression d'un contenu qui n'est pas illicite, les utilisateurs doivent être informés et doivent pouvoir contester cette décision.

Espace privé ou public ?

Mais s’il est convenu qu’une plateforme en ligne n’est qu’un type de fournisseur d’hébergement permettant à ses usagers de diffuser des contenus, s’agit-il d’un espace public ou privé ? Pour Benoît Loutrel, président du groupe de travail sur les plateformes en ligne au sein de l'Arcom, « il est clair que c’est un espace privé », mais « ouvert au public ». Aussi, il rappelle qu’au moment d’ouvrir un compte YouTube, il est demandé à l’utilisateur d’accepter des conditions générales d’utilisation. Et que la réglementation du DSA ne définit pas les limites de la liberté d’expression des plateformes, mais leur demande  d’établir formellement des restrictions. Celles-ci « ne peuvent pas être arbitraires » mais objectives, et « mises en œuvre de manière non discriminatoire ».

Le tout, dans un cadre législatif issu de la directive européenne sur le commerce électronique, adoptée en 2000, qui a construit un socle juridique définissant une responsabilité limitée pour les hébergeurs. Avec une exemption de contrôle a priori des contenus, eu égard à leur nombre très important. De quoi laisser songeur quant au vaste travail qui subsiste pour trouver les compromis permettant de conjuguer respect de la liberté d’expression, et protection des utilisateurs. 

Etienne Anselme

0 commentaire
Poster

Nos derniers articles