Promouvoir l’exigence d’une information sincère pour une démocratie basée sur la confiance

Réguler les plateformes pour contrer la prolifération de la désinformation en ligne. Quelles approches ?

13 avril 2020

Les plateformes numériques sont l’objet de vives critiques dans leur gestion de l’environnement informationnel. Particulièrement, Google, Facebook et Twitter sont accusés de perturber le bon fonctionnement de la démocratie en Europe et aux États-Unis en laissant passer, voire en promouvant, des informations fausses ou malveillantes. Plusieurs actions sont actuellement menées pour endiguer cette désinformation, elles sont le fait des États mais aussi des plateformes qui ont réagi en mettant en place des outils pour répondre aux critiques.

Aurélien Brest
Chargé d'études en psychologie cognitive à la Fondation Descartes

Contexte

Depuis plusieurs années, les plateformes numériques sont accusées de perturber le fonctionnement de la démocratie aux États-Unis et en Europe. L’élection présidentielle de 2016 a déclenché une salve de critiques dans le camp démocrate. Facebook est accusé d’avoir été instrumentalisé par des réseaux de désinformation, notamment Russes, dont les campagnes virulentes auraient facilité l’ascension du candidat Trump. Trois ans plus tard, un attentat contre la mosquée de Christchurch, en Nouvelle-Zélande, est diffusé sur de nombreuses plateformes, dont Facebook et Youtube (filiale de Google). Les plateformes sont alors accusées de favoriser l’expression du terrorisme. La même année, un ex-employé de Google accuse l’entreprise d’avoir un biais “libéral” qui influence toute son organisation. Il soutient que sa propre conviction politique, conservatrice, lui aurait valu son licenciement. Si les critiques sont parfois contradictoires, chaque camp accusant les plateformes d’être une caisse de résonance pour le camp opposé, l’orientation générale des critiques va vers une remise en cause du « laissez-faire » qui valait jusqu’à présent en matière numérique. Les actions entreprises sont cependant très différentes en Europe et aux États-Unis, notamment parce que la législation des deux continents est très dissemblable.

Aux États-Unis, un débat autour de la Section 230

Aux États-Unis, le débat sur les plateformes tourne autour de la Section 230 du “ Communications Decency Act of 1996”. Cette section est fondamentale pour la législation des plateformes. Elle stipule que les plateformes numériques ne peuvent être tenues responsables :

a) des contenus qu’elles hébergent ;

b) des actions qu’elles entreprennent de bonne foi [in good faith] pour modérer les contenus qu’elles hébergent.

Jeff Kosseff, auteur d’un livre sur cette section 230 (The Twenty-Six Words That Created the Internet, Cornell University Press, 2019), explique que ce « bouclier légal » qui empêche les plateformes d’être tenues responsables de l’hébergement et de la modération des contenus a été formulé initialement pour protéger le travail de ces plateformes lorsqu’elles filtrent des contenus illicites. L'élaboration de cette section a été motivée par l’affaire judiciaire Stratton Oakmont, Inc. v. Prodigy Services Co., en 1995. L’hébergeur Prodigy a en effet été tenu responsable des propos diffamants tenus sur son réseau. L’hébergeur effectuait un travail de modération que le juge a interprété comme relevant du travail éditorial. De fait, le contenu diffusé par Prodigy fut donc requalifié en contenu publié, ce qui engageait sa responsabilité. Compte tenu du verdict, les plateformes étaient alors incitées à ne plus opérer de modération sur le contenu qu’elles hébergeaient. La Section 230 reconnait donc l’absence de responsabilité des hébergeurs quand bien même ils effectueraient un travail de modération.

Depuis, seul l’hébergement d’information faisant la publicité du trafic sexuel est légalement prohibé aux États-Unis. Facebook a, par exemple, été tenu non responsable de l’hébergement de contenu terroriste. Lors du procès, son algorithme a été accusé de faciliter la coordination et la visibilité du groupe terroriste concerné, grâce à ses outils de recommandations, de suggestions et de diffusion. Mais le juge a écarté toute responsabilité de Facebook vis-à-vis de l’organisation terroriste. Il s’en justifie ainsi dans son verdict: 

Le simple fait d'organiser et d'afficher le contenu d'autrui aux utilisateurs de Facebook par le biais de tels algorithmes - même si ce contenu n'est pas activement recherché par ces utilisateurs - ne suffit pas à tenir Facebook pour responsable en tant que "développeur" ou "créateur" de ce contenu. 1

La Section 230 fournit donc aux plateformes un outil légal puissant qui attire les mécontentements.

Mais les critiques de la Section 230 sont différentes selon les camps politiques. Les conservateurs visent le travail de modération des plateformes tandis que les démocrates se focalisent plutôt sur l’hébergement de contenu.

Le sénateur républicain Josh Hawley a proposé au Sénat Américain, en juin 2019, un ajout à la Section 230 qui obligerait toute plateforme à déclarer sa neutralité politique lors de ses activités de modération. Cette proposition de loi controversée n’a pas encore été votée par le Sénat. Elle impliquerait que la Federal Trade Commission certifie chaque plateforme hébergeant le contenu de plus de 30 millions d’utilisateurs mensuels. Si la certification n’était pas attribuée, la Commission estimant que la modération ne s’effectue pas sur une base neutre, la plateforme pourrait se voir retirer la protection de la section 230 et ainsi s’attirer des poursuites pénales.

Deux grandes figurent démocrates se sont prononcées pour l’abrogation de la Section 230, Nancy Pelosi et Joe Biden. Ce dernier, dans un entretien au New York Times, affirme :

"La section 230 devrait être révoquée, immédiatement. Pour Zuckerberg et pour d'autres plateformes (...) elle devrait être révoquée parce qu'il ne s'agit pas simplement d’entreprises classiques. Elle propage des mensonges qu'elle sait être faux, et nous devrions établir des normes qui ne soient pas différentes de celles que les Européens appliquent en matière de vie privée. Vous avez encore des rédacteurs en chef. Je suis de leur côté. Ce n'est pas une blague. Facebook n’est soumis à aucun contrôle éditorial. Aucun. Absolument aucun. C'est irresponsable."2

Joe Biden considère, contrairement à la Section 230, que Facebook est un média et que le contenu qu’il diffuse est de la pure désinformation. En suivant d’autres candidats démocrates, il observe avec attention les mesures prises par l’Union Européenne pour contrôler l’action des plateformes numériques.

En Europe, un Code de Bonnes Pratiques

La Directive du Commerce Électronique, adoptée en 2000 par l’Union Européenne, protège les plateformes numériques de toute responsabilité quant au contenu illégal qu’elles pourraient héberger. Cette protection est effective à partir du moment où la plateforme concernée n’est pas au courant qu’elle héberge cette activité illégale. En pratique, les plateformes numériques sont effectivement protégées dans la mesure où elles ne sont pas soumises à une obligation légale de traquer tout contenu illégal et peuvent donc plaider l’ignorance. Si de nombreuses discussions ont court à ce sujet, il n’existe pas, à l’heure actuelle et contrairement aux États-Unis, de tentative officielle pour mettre fin à ce régime de non-responsabilité en Europe. Il est à noter, cependant, que la nouvelle Commission Européenne entretient le flou sur ce sujet. Věra Jourová, qui en est la vice-présidente, a plaidé le 30 janvier 2020 pour que les plateformes soient poussées à être “davantage responsable [accountable and responsible]” sans préciser le mécanisme à mettre en œuvre pour les y pousser. 

Pour le moment, la stratégie adoptée par l’Union Européenne consiste plutôt à favoriser l’auto-régulation.

L’Union Européenne, en effet, a proposé un “Code Européen de bonnes pratiques contre la désinformation” en 2018, auxquels Google, Facebook, Twitter, Mozilla et Microsoft ont adhéré.

Ce Code de Bonnes Pratiques propose onze mesures que chaque plateforme s’engage à respecter. Tous les mois, un rapport est fourni par chaque adhérent à la Commission Européenne. Le dispositif dans son ensemble sera évalué courant 2020 par la Commission.

Les mesures proposées s’articulent autour de trois principes.

Le premier est de lutter contre la désinformation en la rendant moins attractive financièrement. En ligne, la source principale de revenu repose sur la publicité. Tout espace publicitaire sur un site internet (ou sur un contenu vidéo hébergé, par exemple) génère de l’argent via un gestionnaire qui met en lien l’hébergeur de la publicité et l’annonceur qui paye pour la diffusion de cette publicité. Les sites web de fake news ne font pas exception, eux aussi possèdent des espaces publicitaires. Or, plus un site web est régulièrement visité et plus son revenu publicitaire augmente. Les sites web populaires de fake news (et certains le sont) ont donc la possibilité de générer d’importants revenus. Plusieurs études ont montré que la désinformation peut donc s’avérer lucrative, à tel point que certaines campagnes de désinformation sont largement motivées par l’appât du gain. Un rapport du Global Disinformation Index chiffre à 235 millions de dollars, les revenus publicitaires générés par les sites de désinformation. Google représentant le plus gros marché car il est le principal gestionnaire publicitaire via son système AdSense qui met en relation les hébergeurs et les annonceurs publicitaires. Ce chiffre de 235 millions de dollars étant basé sur les sites web répertoriés par l’étude, il est vraisemblable que le montant total réel des revenus soit plus important. En démonétisant les sites de désinformation, la Commission Européenne cherche donc à les tarir.

Le second principe repose sur la mise en place de procédures techniques pour lutter contre la désinformation. La désinformation est particulièrement difficile à combattre parce qu’elle repose en partie sur la dissémination automatique de ses contenus via des programmes informatiques (les bots) et sur la multiplication des sources de désinformation. Il est donc impossible de lutter en utilisant des moyens non-informatiques. Une étude, en s'intéressant à la propagation de 500 000 messages sur Twitter, a identifié que sur l’ensemble des comptes propageant des fausses informations, 14% étaient gérés par des bots. Il est donc inenvisageable d’identifier un tel volume de données manuellement. C’est pourquoi la Commission Européenne pousse les plateformes à développer des techniques pour identifier les pratiques de désinformation en ligne.

Le troisième principe est fondé sur ce que la Commission Européenne appelle les bonnes pratiques de l’information. Elle engage les plateformes à plus de transparence à propos des publicités ciblées, à privilégier une information fiable et authentique, tout en respectant le principe de liberté d’expression. Cette préoccupation rejoint les différentes initiatives menées pour défendre un journalisme de qualité. Le Code avance la notion de “publicité engagée” (issue-based ad) qui doit tenir compte des problématiques non seulement politiques mais aussi sociales pour catégoriser les publicités dont la diffusion doit être prioritairement encadrée.

La Commission Européenne a considéré que la priorité devait être mise sur l’encadrement de ces publicités engagées et sur la démonétisation des contenus de désinformation.    

Le code établi par la Commission Européenne n’a pourtant pas échappé aux critiques. Le Comité Consultatif réuni par la Commission, regroupant des experts, des journalistes et des représentants de la société civile pour juger du texte, l’a accueilli négativement. Il est reproché au Code de ne pas proposer d’approche commune, de ne pas dégager d’engagements clairs et précis, de ne pas imposer d’objectifs chiffrés qui seraient accompagnés d’indices de performance. La démarche générale est estimée ne pas aller dans le sens d’une auto-régulation : le Comité Consultatif considère que l’objectif du Code de Bonnes Pratiques ne peut pas être rempli dans l’état. L’opinion du Comité Consultatif est accessible dans son intégralité.

La Commission Européenne dresse un constat plus positif dans son rapport annuel (octobre 2019), en s’appuyant sur les bonnes performances aux élections européennes de 2019. La Commission constate qu’aucune campagne massive de désinformation n’a été menée. Elle félicite aussi les plateformes numériques qui ont rendu plus transparentes les campagnes publicitaires ciblées lors de ces élections.

Elle félicite particulièrement Facebook qui a mis en place une “bibliothèque publicitaire” sur son site : on peut y consulter librement la liste de tous les groupes qui ont diffusé de la publicité sur Facebook et pour quel montant. Facebook a ainsi repris à son compte la notion de publicité engagée, en proposant un onglet de recherche dédié spécialement aux publicités qui ont un caractère “social, électoral ou politique”. La Commission insiste pour que toutes les autres plateformes mettent en place une politique publicitaire qui ait ce niveau de transparence.

Soulignons cependant que Youtube, propriété de Google, a récemment été visée par une étude d’AVAAZ 3 pour sa politique conciliante envers la désinformation sur le climat.   

Twitter a, pour sa part, interdit toute publicité à caractère politique lors des campagnes électorales. Il a aussi ouvert ses données à la recherche, ce qui est salué par la Commission. En effet, les scientifiques ont beaucoup de difficultés pour conduire des recherches sur les plateformes en ligne qui contrôlent fortement l’accès aux données ; cette politique rend difficile l’évaluation objective du fonctionnement de la désinformation en ligne.

Microsoft a aussi décidé de ne plus diffuser de publicités politiques. Cette mesure s’ajoute à une modération accrue des contenus de désinformation qui circulent sur ses réseaux. 

Malgré les avancées, la Commission Européenne incite les acteurs numériques à intensifier leurs actions pour combattre la désinformation. Elle recommande de généraliser les outils à destination des utilisateurs qui permettent d’identifier, de contextualiser et de vérifier les informations qui circulent sur ces plateformes.     

En France

La “Loi du 22 décembre 2018 relative à la lutte contre la manipulation de l'information” mentionne dans son article 12 que les plateformes en ligne doivent coopérer avec le Conseil supérieur de l’audiovisuel (CSA) pour lutter contre la diffusion des fausses informations. Le CSA a donc créé une équipe et un comité d’experts dédiés à la lutte contre la désinformation en ligne. Il a aussi mis en ligne un texte de recommandation détaillant sept mesures que les plateformes sont invitées à adopter. Ces recommandations s’inscrivent explicitement dans le prolongement des initiatives portées par l’Union et la Commission Européenne. Les plateformes sont incitées à :

  1. Proposer des outils pour que les internautes puissent agir contre la désinformation : signalement, balise d’alerte, accès facilité à des informations contextuelles permettant d’identifier si l’information est fiable, etc.
  2. Rendre les algorithmes des plateformes transparents.
  3. Rendre davantage visibles les informations ayant faits l’objet d’une vérification indépendante et les contenus issus de la presse et de la communication audiovisuelle. Le rapport site les « démarches de labellisation » qui permettent de faciliter cette visibilité. Ces labels ont fait l’objet d’un article sur notre site
  4. Renforcer la lutte contre la désinformation en améliorant les procédés techniques de détection et de suppression des informations malveillantes et en facilitant la recherche académique sur le sujet.
  5. Rendre transparente la nature des contenus diffusés et notamment distinguer les contenus sponsorisés et publicitaires des contenus journalistiques.
  6. Favoriser toutes les initiatives contre la désinformation et principalement l’éducation aux médias.
  7. Communiquer un rapport annuel à destination du CSA pour informer de la mise en place des recommandations.

Conclusion

Le CSA propose donc une méthode sensiblement proche de ce qu’opère la Commission Européenne avec son Code des bonnes pratiques : une liste de recommandations et un suivi annuel. On peut y voir une harmonisation des pratiques contre la désinformation à l’échelle de l’Union Européenne. La désinformation est un phénomène à la fois global et diffus, ce qui oblige à conjuguer des approches à grande échelle et au niveau local. La stratégie adoptée par l’Union Européenne et ses membres pour réguler les plateformes numériques est scrutée avec attention du côté américain. Les élections présidentielles de 2020 vont certainement renforcer la demande d’actions concrètes de la part des plateformes pour lutter contre la désinformation. L’endiguement de la désinformation lors des élections européennes de 2019 pourra certainement être pris comme modèle pour les prochaines campagnes.     

Pour aller plus loin :

Une carte interactive mise en place par le site Poynter qui répertorie les actions contre la désinformation dans le monde.

  1. https://www.reuters.com/article/us-facebook-lawsuit/facebook-defeats-appeal-in-u-s-claiming-it-aided-hamas-attacks-in-israel-idUSKCN1UQ1YR[]
  2. https://www.nytimes.com/interactive/2020/01/17/opinion/joe-biden-nytimes-interview.html[]
  3. AVAAZ est une plateforme en ligne qui a pour but de réunir des citoyens du monde entier pour qu’ils puissent se coordonner en vue d’actions politiques et sociales. La plateforme est uniquement financées par ses membres qui sont un peu plus de 56 millions à travers le monde. []
Format :    
Langue  :  Français 
/
PARTAGER L'ARTICLE
Fonds de dotation pour la création de la Fondation Descartes
16 Cours Albert 1er, 75008 Paris.
SUIVEZ-NOUS
usercrossmenuchevron-rightchevron-down-circle linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram