Visit our InstagramVisit our TwitterVisit our LinkedIn
Promouvoir l’exigence d’une information sincère pour une démocratie basée sur la confiance

DSA : La position de la Fondation Descartes

Léa Giffard & Nikita Guedj

Le constat de la Fondation Descartes à propos du Digital Services Act (DSA)

La Fondation Descartes se félicite de la rédaction du DSA, qui permet de mettre à jour la directive e-commerce (2000). Elle invite cependant à en reconsidérer certains aspects, qui semblent menacer la liberté d’expression sur Internet.

Les plateformes numériques, opérateurs privés, jouent un rôle de plus en plus important dans la modération des propos tenus sur Internet. Elles régulent aujourd’hui l’expression publique sur leurs pages en fonction de leurs propres règles en utilisant à la fois l’intelligence artificielle et la modération humaine

Eu égard à la position quasi-oligopolistique des plateformes numériques sur le marché de l’expression publique en ligne, elles sont de facto devenues les régulatrices du débat démocratique. Or il n’est pas souhaitable que des acteurs privés jouent ce rôle en se conformant à des critères de régulation qu’ils déterminent eux-mêmes. Cela ouvre en effet la voie à l’arbitraire et au risque de sur- ou de sous-modération, selon les cas.

Cependant, les volumes de contenus à modérer étant conséquents, seules les plateformes elles-mêmes sont techniquement en mesure de le faire. En l’état, il est illusoire de compter sur la seule voie judiciaire pour opérer cette régulation – la justice française, par exemple, n’est pas en capacité de traiter davantage de plaintes liées à un usage abusif de la liberté d’expression.

Nous pensons qu’il revient à la puissance publique de fixer les objectifs et le cadre de la modération par les plateformes numériques de l’expression publique sur Internet. Ces dernières devraient être alors tenues de se conformer à ces objectifs et à ce cadre, sous peine de sanctions effectives.

Contrairement à ce qui est proposé dans le DSA, la Fondation Descartes estime qu’il est important de faire de la loi nationale le cadre de modération de l’expression publique sur les réseaux sociaux. En France, par exemple, la loi de 1881, qui garantit la liberté d’expression tout en lui fixant des limites claires, ainsi que les articles pertinents du droit pénal (sur le terrorisme, etc.) devraient constituer le cadre de la modération sur les réseaux sociaux et Internet selon l’application territoriale de la loi française. Les plateformes devraient être contraintes de modérer les contenus en fonction de ce cadre légal et de sa jurisprudence.

Dans leur modération, les plateformes ne devraient en aucun cas pouvoir se montrer moins restrictives que la loi nationale fixant les limites de la liberté d’expression. Mais elles ne devraient pas non plus pouvoir se montrer plus restrictives, en interdisant l’expression de propos autorisés par la loi, à l’exception de l’imposition de limites supplémentaires qui ne porteraient pas atteinte de manière disproportionnée à la liberté d’expression des citoyens mais en réguleraient uniquement la forme – par exemple, en exigeant de leurs utilisateurs de faire preuve d’une certaine civilité dans leurs échanges ou en interdisant de publier des images ou des messages violents non nécessaires à l’information, au débat, ou à l’expression d’une idée.

Les recommandations de la Fondation Descartes

I. Amendements aux considérants

1. Sur l’objectif de lutter contre les contenus haineux en ligne

La Fondation Descartes estime que l’architecture des plateformes numériques, façonnée par leur business model, ne peut être uniquement guidée par des objectifs commerciaux mais doit prendre en compte les impératifs relevant du débat public.

En effet, la Fondation Descartes estime que les plateformes numériques doivent faire le nécessaire afin de prendre en compte ces impératifs.

De cette manière, la Fondation Descartes propose de donner comme objectif aux plateformes numériques de travailler à évincer les discours de haine relevant d’abus à la liberté d’expression et sanctionnés comme tels par la loi nationale, et à en éviter la viralité.

Par ailleurs, la Fondation Descartes appelle à définir les discours de haine selon la loi nationale de chaque Etat membre.

Amendement des “considérants” 3 et 12 :

(3) Un comportement responsable et diligent des fournisseurs de services intermédiaires est indispensable pour assurer un environnement en ligne sûr, prévisible et de confiance et pour permettre aux citoyens de l’Union et aux autres personnes d’exercer leurs droits fondamentaux garantis par la Charte des droits fondamentaux de l’Union européenne (la «Charte»), en particulier la liberté d’expression et d’information et la liberté d’entreprise, ainsi que le droit à la non-discrimination. Afin d’adopter un comportement responsable, les plateformes numériques doivent faire le nécessaire pour prendre en compte les impératifs relevant du débat public. Les plateformes doivent se donner comme objectif de mettre en place des mesures qui vont dans ce sens, recensées dans les rapports d’atténuation des risques.

(12) Afin d’atteindre l’objectif consistant à garantir un environnement en ligne sûr, prévisible et de confiance, il convient, aux fins du présent règlement, de donner une définition large de la notion de «contenu illicite», recouvrant également les informations relatives aux contenus, produits, services et activités illicites. En particulier, ce concept doit être compris comme se référant à des informations, quelle que soit leur forme, qui, en vertu du droit applicable, sont soit elles-mêmes illicites, comme les discours de haine illégaux tels que définis par la loi nationale de chaque Etat membre ou les contenus à caractère terroriste et les contenus discriminatoires illégaux, soit se rapportent à des activités illégales, comme le partage d’images représentant des abus sexuels commis sur des enfants, le partage illégal d’images privées sans consentement, le harcèlement en ligne, la vente de produits non conformes ou contrefaits, l’utilisation non autorisée de matériel protégé par le droit d’auteur ou les activités impliquant des infractions à la loi sur la protection des consommateurs. Il importe peu à cet égard que l’illégalité de l’information ou de l’activité procède du droit de l’Union ou d’une législation nationale conforme au droit de l’Union et que la nature ou l’objet précis du droit en question soit connu.

2. Sur l’interopérabilité

La Fondation Descartes invite à inciter le développement de l’interopérabilité entre plateformes afin d’encourager une interopérabilité effective : les utilisateurs doivent pouvoir transiter plus facilement d’une plateforme à une autre.

La Fondation Descartes estime que « favoriser l’interopérabilité » n’est pas un terme assez précis. Il s’agit d’inviter à développer des mesures techniques dans le but d’assurer l‘effectivité de l’interopérabilité, selon le principe du « bon Samaritain ».

Amendement du “considérant” 4 :

(4)  Par conséquent, afin de préserver et d’améliorer le fonctionnement du marché intérieur, il convient d’établir un ensemble spécifique de règles obligatoires uniformes, efficaces et proportionnées au niveau de l’Union. Le présent règlement crée les conditions nécessaires à l’émergence et au développement de services numériques innovants dans le marché intérieur. Le rapprochement des mesures réglementaires nationales au niveau de l’Union relatives aux exigences applicables aux fournisseurs de services intermédiaires est nécessaire pour éviter et éliminer la fragmentation du marché intérieur et pour assurer la sécurité juridique, en réduisant par là même l’incertitude pour les développeurs et en rendant effective l’interopérabilité entre plateformes, afin que les utilisateurs puissent passer plus facilement d’une plateforme à une autre. Grâce à des exigences neutres sur le plan technologique, l’innovation ne devrait pas être entravée, mais au contraire stimulée

3. Sur la clarification des services intermédiaires

La Fondation Descartes propose d’intégrer aux services intermédiaires les moteurs de recherche en raison des risques systémiques (tels que définis à l’article 26 du DSA) qu’ils comportent.

Amendement du “considérant” 14 :

(14)  Le concept de «diffusion au public», tel qu’il est utilisé dans le présent règlement, devrait impliquer la mise à disposition de l’information à un nombre potentiellement illimité de personnes, c’est-à-dire le fait de rendre l’information facilement accessible aux utilisateurs en général sans que le bénéficiaire du service ayant fourni l’information ait à intervenir, que ces personnes aient ou non effectivement accès à l’information en question. La simple possibilité de créer des groupes d’utilisateurs d'un service donné ne devrait pas, en soi, être interprétée comme signifiant que les informations diffusées de cette manière ne sont pas diffusées au public. Toutefois, ce concept devrait exclure la diffusion d’informations au sein de groupes fermés composés d’un nombre fini de personnes prédéterminées. Les services de communication interpersonnelle, tels que définis dans la directive (UE) 2018/1972 du Parlement européen et du Conseil 1, tels que les courriels ou les services de messagerie privée, ne relèvent pas du champ d’application du présent règlement. Les moteurs de recherche relèvent du champ du règlement. Une information ne devrait être considérée comme étant diffusée auprès du public au sens du présent règlement que lorsque cela se produit à la demande directe du bénéficiaire du service qui a fourni les informations.

II. Amendements au chapitre II – Responsabilité des fournisseurs de services intermédiaires

4. Sur les enquêtes volontaires d’initiative propre

La Fondation Descartes invite à clarifier l’article 6 : l’article 6 aura-t-il pour conséquence indirecte de déresponsabiliser les plateformes ? La Fondation Descartes craint que cet article conduise à occulter l’obligation de résultats au profit d’une simple obligation de moyens.

III. Amendements au chapitre III - Obligations de diligence pour un environnement en ligne sûr et transparent

5. Sur le représentant légal

La Fondation Descartes estime qu’il est important de responsabiliser juridiquement les très grandes plateformes numériques. La Fondation Descartes propose qu’un représentant légal de chaque plateforme soit présent dans chaque Etat membre de l’Union européenne, et non pas dans un des Etats membres, comme prévu dans le texte.

Ainsi, les très grandes plateformes devraient être dans l’obligation d’avoir un responsable juridique dans chacun des 27 pays de l’Union européenne, que l’État, la justice ou des particuliers pourraient mettre en cause s’ils estiment que les plateformes ne remplissent pas leur fonction de modération conformément aux objectifs et dans le cadre imposé par la puissance publique de chaque Etat.

La Fondation Descartes invite donc à ajouter un article (article 27 bis) en complément de l’article 11 qui s’applique aux très grandes plateformes, tel que rédigé ci-dessous.

Par ailleurs, la Fondation Descartes se demande si la double responsabilité décrite dans le paragraphe 3 de l’article 11 implique une déresponsabilisation des plateformes. La Fondation Descartes appelle à clarifier cet article.

De plus, la Fondation Descartes invite à clarifier les missions du point de contact et du représentant légal, dont les rôles se recoupent (voir considérants 36 et 37).

Nouvel article (27 bis)

Article 27 bis
Représentants légaux

En complément de l’article 11, les plateformes qui n’ont pas d’établissement au sein de l’Union, mais qui proposent des services à l’intérieur de l’Union désignent, par écrit, une personne morale ou physique comme leur représentant légal dans chacun des États membres dans lequel la plateforme propose ses services

6. Sur les conditions d’utilisation

La Fondation Descartes estime que les CGU des très grandes plateformes ne peuvent pas restreindre la liberté d’expression significativement plus que ne le fait la loi nationale.

La Fondation Descartes suggère de mettre en place un socle commun de normes pour toutes les plateformes, socle qui devrait refléter la loi nationale selon son application territoriale et les principes de la Charte des droits fondamentaux de l’Union européenne.

Ce socle commun prendrait la forme d’un cahier des charges des CGU établipar le Comité des régulateurs européens.

Amendement de l’article 12 :

Article 12
 Conditions générales

  1. Les fournisseurs de services intermédiaires indiquent dans leurs conditions générales les renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service eu égard aux informations fournies par les bénéficiaires du service. Ces renseignements ont trait, notamment, aux politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Ils sont énoncés clairement et sans ambiguïté et sont publiquement disponibles dans un format facilement accessible.
  2. Lorsqu'ils appliquent et font respecter les restrictions visées au paragraphe 1, les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties concernées, du cahier des charges établi par le Comité des régulateurs européens, qui comprend notamment le respect des droits fondamentaux applicables des bénéficiaires du service, tels que consacrés dans la Charte.

7. Sur les rapports de transparence

La Fondation Descartes estime que la nature de la mise en œuvre des obligations de transparence sur les algorithmes de recommandation ou de modération est vague. Elle invite les plateformes à préciser les ressorts de leurs algorithmes.

Amendement de l’article 23 :

Article 23
Obligations relatives aux rapports de transparence incombant aux fournisseurs de plateformes en ligne

  1. En plus des informations visées à l’article 13, les plateformes en ligne intègrent aux rapports visés dans cet article des informations sur les points suivants:

(a) le nombre de litiges transmis aux organes de règlement extrajudiciaire des litiges visés à l’article 18, les résultats du règlement des litiges et le temps moyen nécessaire pour mener à bien les procédures de règlement des litiges;

(b) le nombre de suspensions imposées au titre de l’article 20, en faisant la distinction entre les suspensions prononcées en raison de la fourniture de contenus manifestement illicites, de la soumission de notifications manifestement non fondées et du dépôt de plaintes manifestement non fondées;

(c) tout recours à des moyens automatisés à des fins de modération de contenus, y compris une spécification des objectifs précis, des méthodes utilisées (notamment des versions actualisées du fonctionnement des algorithmes utilisés dans un langage simple et compréhensible par tous), des indicateurs de la précision des moyens automatisés pour atteindre ces objectifs et des éventuelles mesures de sauvegarde appliquées.

2. […]

8. Sur le recours au régulateur national ou à un organisme indépendant

La Fondation Descartes estime que la régulation des contenus en ligne devrait être gérée au niveau national.

Ainsi, la Fondation Descartes suggère de mettre en place des centres de modération au niveau national, dans lesquels les modérateurs des plateformes seraient formés à la loi nationale de l’Etat membre ainsi qu’à sa jurisprudence (aujourd’hui, la formation des modérateurs des grandes plateformes numériques est basée sur l’apprentissage des standards de communauté de chaque plateforme).

Le rôle de ces modérateurs serait de repérer et supprimer les contenus manifestement illicites au regard de la loi nationale et des conditions générales d’utilisation (CGU) et de transmettre les cas les plus graves au juge judiciaire ou à l’autorité de régulation (le régulateur national ou organisme indépendant lié au régulateur national), selon la nature de l’infraction supposée.

Il pourrait être envisagé d’instaurer un centre national indépendant de médiation de la modération dans chaque pays de l’Union Européenne (“l’organisme indépendant lié au régulateur national”) regroupant des juristes professionnels, des représentants des grandes plateformes numériques et des représentants de l’État. En cas de doute sur le traitement à réserver à un contenu, les modérateurs des plateformes pourraient faire appel à ce centre de médiation, dont les décisions seraient exécutoires.

Les utilisateurs des plateformes numériques pourraient eux aussi faire appel à ce centre de médiation s’ils considèrent, après avoir épuisé les voies de recours internes aux plateformes, qu’un de leurs contenus a été abusivement modéré par une plateforme numérique ou, au contraire, s’ils pensent que des contenus qui devraient être modérés ne le sont pas. Pour les usagers des plateformes numériques, la possibilité de recourir à ce centre de médiation constituerait une option facultative n’entravant en rien leur droit d’en appeler directement à la justice.

Finalement, il pourrait être fait appel des décisions de ce centre de médiation de la modération, le juge judiciaire restant l’ultime garant de la liberté d’expression et l’arbitre de ses abus éventuels. Le financement de ce centre de médiation de la modération serait intégralement à la charge des plateformes numériques.

Le mécanisme de notification et d'action de l’article 14 confère aux plateformes numériques un rôle de juge néfaste. La Fondation Descartes invite à partager ce rôle entre la justice, la plateforme et l’autorité de régulation.

La Fondation Descartes suggère de créer un nouvel article (article 17 bis, par exemple), destiné aux plateformes en ligne, afin de leur conférer certaines nouvelles obligations, tel que rédigé ci-dessous :

Nouvel article (article 17 bis) :

Article 17 bis
Recours au régulateur national ou à un organisme indépendant

1.  En complément de l’article 5, les plateformes doivent avoir recours à des modérateurs nationaux formés à loi nationale de l’Etat membre, qui peuvent demander un avis au régulateur national ou à un organisme indépendant lié au régulateur national, dont les décisions seraient exécutoires.

2. Les utilisateurs doivent également avoir la possibilité de faire un recours auprès de l’autorité de régulation nationale ou l’organisme indépendant lié au régulateur national, après avoir épuisé les voies de recours internes aux plateformes, s’ils veulent contester la décision prise par la plateforme.

3. L’organisme indépendant lié au régulateur national prendrait la forme d’un centre national indépendant de médiation de la modération dans chaque pays de l’Union Européenne. Son organisation sera définie par décrets nationaux d’application.

9. Sur le mécanisme de notification et d’action

En vue de garantir la liberté d’expression, la Fondation Descartes craint que le fait de rendre responsables les plateformes numériques dès qu’elles reçoivent la notification d’un contenu illicite puisse les conduire à sur-modérer les contenus signalés.

Il ne peut être présumé qu’une notification de contenu illicite soit justifiée et comporte effectivement un contenu illicite. La plateforme doit donc pouvoir disposer du temps nécessaire pour faire preuve de discernement et juger du caractère manifestement illicite d’un contenu avant de le retirer. De ce point de vue, le retrait abusif ou hâtif d’un contenu licite est aussi dommageable que le défaut de retrait d’un contenu illicite dans un temps raisonnable.

En effet, la Fondation Descartes considère que le risque de sur-modération est à prendre en compte au même titre que le risque de sous-modération.

La Fondation Descartes appelle à clarifier la notion de “connaissance de l’activité ou du contenu illicite” (art. 5). Elle estime qu’une notification ne peut constituer une “connaissance” effective.

Par conséquent, la Fondation Descartes pense que la responsabilité des plateformes vis-à-vis d’un contenu signalé devrait intervenir à partir du moment où le contenu signalé a été analysé par la plateforme (et non au moment où les plateformes reçoivent la notification qu’un contenu a été signalé), afin d’éviter que les plateformes ne suppriment des contenus signalés qui n’auraient pas dû l’être dans la peur d’être juridiquement responsables desdits contenus s’ils sont illicites.

Pour ne pas ralentir le processus de modération, il faudrait que la notification soit traitée le plus rapidement possible selon la gravité du contenu, et la portée de la diffusion du message incriminé. Si la notification n’est pas traitée dans un temps raisonnable, la responsabilité de la plateforme sera engagée.

Amendement de l’article 14 :

Article 14
 Mécanismes de notification et d’action

1. Les fournisseurs de services d’hébergement établissent des mécanismes permettant à tout individu ou à toute entité de leur signaler la présence au sein de leur service d’informations spécifiques considérées comme du contenu illicite par l’individu ou l’entité. Ces mécanismes sont faciles d’accès et d’utilisation et permettent la soumission de notifications exclusivement par voie électronique.

2. Les mécanismes prévus au paragraphe 1 facilitent la soumission de notifications suffisamment précises et dûment motivées, sur la base desquelles un opérateur économique diligent peut établir l’illégalité du contenu en question. Des modérateurs présents dans chaque pays viennent en aide au processus de modération. En cas de doute sérieux, les fournisseurs peuvent faire appel à l’autorité de régulation nationale ou à l’organisme indépendant lié au régulateur national du pays de destination (cf. Article 17 bis). À cette fin, les fournisseurs prennent les mesures nécessaires en vue de permettre et faciliter la soumission de notifications contenant l’ensemble des éléments suivants:

(a) une explication des raisons pour lesquelles l’individu ou l’entité considère que les informations en question constituent un contenu illicite;

(b) une indication claire de l’adresse électronique de ces informations, en particulier le(s) URL exacte(s), le cas échéant, des informations complémentaires permettant de repérer le contenu illicite ;

(c) le nom et une adresse de courrier électronique de l’individu ou de l’entité soumettant la notification, sauf dans le cas d’informations considérées comme impliquant une des infractions visées aux articles 3 à 7 de la directive 2011/93/UE;

(d) une déclaration confirmant que l’individu ou l’entité soumettant la notification pense, de bonne foi, que les informations et les allégations qu’elles contiennent sont exactes et complètes

3. Les notifications comprenant les éléments visés au paragraphe 2 sont réputées donner lieu à la connaissance ou à la prise de conscience effective aux fins des articles 5 et 17 bis en ce qui concerne les informations spécifiques concernées. La responsabilité des plateformes vis-à-vis d’un contenu signalé ne serait engagée qu’après que ledit contenu a été analysé par la plateforme dans un temps raisonnable. La notification doit être traitée le plus rapidement possible selon la gravité du contenu et la portée de la diffusion du message incriminé.

10. Sur le règlement extrajudiciaire des litiges

La Fondation Descartes invite à préciser la juridiction de l’organe extrajudiciaire de règlement des litiges. En effet, il s’agit de juger selon la loi nationale et ses mécanismes, d’où l’importance que la juridiction soit nationale (même si le règlement du litige se tient à distance).

Amendement de l’article 18 :

Article 18
 Règlement extrajudiciaire des litiges

1. Les bénéficiaires du service destinataires des décisions visées à l’article 17, paragraphe 1, ont le droit de choisir tout organe de règlement extrajudiciaire des litiges ayant été certifié conformément au paragraphe 2 en vue de résoudre les litiges associés à ces décisions, y compris pour les réclamations qui ne pourraient pas être réglées par le système interne de traitement des réclamations prévu par ledit article. Les plateformes en ligne collaborent de bonne foi avec l’organe sélectionné en vue de résoudre le litige et se soumettent à la décision prise par cet organe.

Le premier alinéa est sans préjudice du droit du bénéficiaire concerné de contester la décision devant une juridiction conformément au droit applicable.

2. Le coordinateur pour les services numériques de l’État membre dans lequel est établi l’organe de règlement extrajudiciaire des litiges certifie cet organe qui est compétent sur le territoire national de l’État membre, à la demande de ce dernier, lorsqu’il a démontré qu’il respecte l’ensemble des conditions suivantes : […]

11. Sur les signaleurs de confiance

La Fondation Descartes invite à avoir des critères stricts d’agrémentation des signaleurs de confiance tels que l’expertise et la déontologie.

Amendement de l’article 19 :

Article 19
Signaleurs de confiance

1. Les plateformes en ligne prennent les mesures techniques et organisationnelles nécessaires pour veiller à ce que les notifications soumises par des signaleurs de confiance à l’aide des mécanismes prévus à l’article 14 soient traitées et donnent lieu à des décisions de manière prioritaire et dans les meilleurs délais.

2.  Le statut de signaleur de confiance au titre du présent règlement est attribué, sur demande présentée par une entité, quelle qu'elle soit, par le coordinateur pour les services numériques de l’État membre dans lequel l’entité présentant la demande est établie, dès lors que l'entité a démontré qu’elle satisfait à l’ensemble des conditions suivantes :

(a) elle dispose d’une expertise interdisciplinaire et de compétences particulières aux fins de la détection, de l’identification et de la notification des contenus illicites ;

(b) elle représente des intérêts collectifs apartisans et est indépendante de toute plateforme en ligne ;

(c) elle répond à des règles déontologiques ;

(d)  elle s’acquitte de ses tâches aux fins de la soumission des notifications en temps voulu, de manière diligente et objective.

3.  […]

12. Sur la décision de suspension de compte

La Fondation Descartes estime que la décision de la suspension d’un compte ayant fréquemment publié des contenus illicites ne peut appartenir aux plateformes en ligne seules si un mécanisme de recours auprès de l’autorité de régulation nationale ou l’organisme indépendant lié au régulateur national n’est pas mis en place en parallèle.

Toute suspension abusive engagera la responsabilité de la plateforme.

Amendement de l’article 20 :

Article 20
Mesures de lutte et de protection contre les utilisations abusives

1. Les plateformes en ligne suspendent, pendant une période de temps raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux bénéficiaires du service qui fournissent fréquemment des contenus manifestement illicites.

2. Les plateformes en ligne suspendent, pendant une période de temps raisonnable et après avoir émis un avertissement préalable, le traitement des notifications et des réclamations soumises par l’intermédiaire des mécanismes de notification et d’action et des systèmes internes de traitement des réclamations prévus aux articles 14 et 17, respectivement, par des individus, des entités ou des plaignants qui soumettent fréquemment des notifications ou des réclamations manifestement infondées.

3. Les plateformes en ligne évaluent au cas par cas et en temps opportun, de manière diligente et objective, si un bénéficiaire, un individu, une entité ou un plaignant se livre aux utilisations abusives visées aux paragraphes 1 et 2, en tenant compte de l’ensemble des faits et circonstances pertinents qui ressortent des informations dont elles disposent. Ces circonstances comprennent au moins les éléments suivants:

(a) le nombre, en valeur absolue, d’éléments de contenus manifestement illicites ou de notifications ou de réclamations manifestement infondées, soumis au cours de l’année écoulée ;

(b) la proportion relative de ces éléments par rapport au nombre total d’informations fournies ou de notifications soumises au cours de l’année écoulée ;

(c) la gravité des utilisations abusives et leurs conséquences ;

(d) l’intention du bénéficiaire, de l’individu, de l’entité ou du plaignant.

4. Les plateformes en ligne énoncent de manière claire et détaillée leur politique relative aux utilisations abusives visées aux paragraphes 1 et 2 dans leurs conditions générales, notamment en ce qui concerne les faits et circonstances dont elles tiennent compte pour apprécier si certains comportements constituent des utilisations abusives et déterminer la durée de la suspension.

5.  Toutes les décisions des plateformes relatives au présent article doivent pouvoir faire l’objet d’un recours auprès de l’autorité de régulation nationale ou l’organisme indépendant lié au régulateur national.  Toute suspension abusive engagera la responsabilité de la plateforme

13. Sur l'agrément des chercheurs

La Fondation Descartes se félicite de l’ouverture de l’accès aux données aux chercheurs, et souligne la nécessité que la procédure d’obtention de l’agrément soit simple et rapide.

Amendement de l’article 31 :

Article 31
 Accès aux données et contrôle des données

1.  Les très grandes plateformes en ligne fournissent au coordinateur de l’État membre d’établissement pour les services numériques ou à la Commission, à leur demande motivée et dans un délai raisonnable, spécifié dans la demande, l’accès aux données et aux algorithmes de recommandation nécessaires pour contrôler et évaluer le respect du présent règlement. Le coordinateur pour les services numériques et la Commission limitent l’utilisation de ces données à ces fins.

2.  Sur demande motivée du coordinateur de l’État membre d’établissement pour les services numériques ou de la Commission, les très grandes plateformes en ligne fournissent, dans un délai raisonnable, comme spécifié dans la demande, l’accès aux données à des chercheurs agréés qui satisfont aux exigences énoncées au paragraphe 4 du présent article, à seule fin de procéder à des recherches contribuant à l'identification et à la compréhension des risques systémiques au sens de l’article 26, paragraphe 1. La procédure, si les conditions du paragraphe 4 sont remplies, doit être simple et rapide.

3. Les très grandes plateformes en ligne fournissent l’accès aux données conformément aux paragraphes 1 et 2 par l’intermédiaire de bases de données en ligne ou d’interfaces de programme d’application, selon le cas.

4. Pour pouvoir être agréés, les chercheurs sont affiliés à des établissements universitaires, sont indépendants de tous intérêts commerciaux, possèdent une expertise attestée dans les domaines en lien avec les risques examinés ou les méthodologies de recherche connexes, et ils s'engagent à respecter les exigences spécifiques de sécurité des données et de confidentialité correspondant à chaque demande et en ont les moyens. Il n’y aura pas de droit de regard des plateformes quant aux publications émanant des données.

[…]

14. Sur les coordinateurs pour les services numériques

La Fondation Descartes invite à préciser le statut des coordinateurs pour les services numériques.

Ce statut doit être indépendant, par exemple au sens des autorités administratives indépendantes selon la loi française. Les autorités administratives sont définies comme des organismes administratifs qui agissent au nom de l'État et disposent d'un pouvoir règlementaire et de sanction, et agissent de manière indépendante afin de n’être tributaire d’aucun intérêt commercial ou politique.

Amendement de l’article 39 :

Article 39
Exigences applicables aux coordinateurs pour les services numériques

1. Les États membres veillent à ce que les coordinateurs pour les services numériques réalisent leurs missions en vertu du présent règlement de manière impartiale, transparente et en temps utile. Les coordinateurs pour les services numériques doivent être statutairement indépendant vis-à-vis des pouvoirs politiques et du secteur privé. Les États membres veillent à ce que leurs coordinateurs pour les services numériques disposent de ressources techniques, financières et humaines suffisantes pour accomplir leurs missions.

2. Lorsqu’ils accomplissent leurs missions et exercent leurs pouvoirs conformément au présent règlement, les coordinateurs pour les services numériques agissent en toute indépendance. Ils restent libres de toute influence extérieure, directe ou indirecte, et ne sollicitent ni n’acceptent aucune instruction d’aucune autre autorité publique ou partie privée.

3. Le paragraphe 2 est sans préjudice des missions incombant aux coordinateurs pour les services numériques dans le cadre du système de surveillance et de coercition prévu dans le présent règlement et de la coopération avec les autres autorités compétentes conformément à l’article 38, paragraphe 2. Le paragraphe 2 n’empêche pas la surveillance des autorités concernées conformément au droit constitutionnel national.

  1. Directive (UE) 2018/1972 du Parlement européen et du Conseil du 11 décembre 2018 établissant le code des communications électroniques européen (refonte) (JO L 321 du 17.12.2018, p. 36).[]
Thématique :  Régulation des Plateformes, Digital Services Act (DSA)  
/
Format :    
Langue  :  Français 
/
Mots-clés : 
PARTAGER L'ARTICLE
Fonds de dotation pour la création de la Fondation Descartes
8, Avenue du Président Wilson 75116 Paris.
usercrossmenuchevron-down-circle linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram