Visit our InstagramVisit our TwitterVisit our LinkedIn
Promouvoir l’exigence d’une information sincère pour une démocratie basée sur la confiance
Soutenir la fondation
Fondation Descartes

La Fondation Descartes est une initiative citoyenne, apartisane, indépendante et européenne dédiée aux enjeux de l’information, de la désinformation et du débat public dans une société démocratique.

Fonctionnement et gouvernance

La Fondation Descartes est animée par trois organes : un Conseil d’Administration présidé par Jean-Philippe Hecketsweiler ; un Conseil Scientifique encadré par Gérald Bronner et d’une équipe permanente, dirigée par Laurent Cordonier, Directeur de la recherche.

Nous contacter

Vous souhaitez contacter l’équipe permanente de la Fondation Descartes ?

Nos études

Tous les ans, la Fondation Descartes publie une étude en lien avec la désinformation dans ses thématiques phares (conflit, santé, climat). Retrouvez-les en intégralité.

Nos analyses

La Fondation Descartes publie des synthèses rédigées par son équipe de recherche sur les grandes thématiques liées à l'information et la désinformation.

Blog des experts

La Fondation Descartes publie des contributions d'experts associés à la Fondation, qui s'expriment ici en leur nom propre.

Nos colloques

En parallèle de la publication de son étude annuelle, La Fondation Descartes organise chaque année un colloque portant sur la désinformation dans la santé, le climat et les conflits.

Nos partenariats

Dans sa lutte contre la désinformation, la Fondation Descartes s'associe régulièrement à d'autres acteurs de l'écosystème informationnel.

Nos podcasts

En partenariat avec France Info, la Fondation Descartes décortique les infox qui ont traversé le temps dans sa série de podcasts "Les Infox de l'Histoire"

Acteurs

La Fondation Descartes identifie et cartographie les acteurs multiples agissant en France, en Europe et dans le monde impliqués dans la lutte contre la désinformation et dans la promotion d'un débat public basé sur des information sincères.

Initiatives

La Fondation Descartes vous propose une cartographie des initiatives en France et dans le monde impliqués dans la promotion de la qualité de l'information ou dans la lutte contre la désinformation.

Inscrivez-vous à la newsletter

Essaims d’intelligences artificielles sur les réseaux sociaux : comment faire face à cette menace pour les démocraties ?

Francesca Hemery et Francesco Paolo Savatteri – Cercle des experts de la Fondation Descartes
Un article paru le 22 janvier 2026 dans la revue Science alerte sur l’émergence de nouvelles formes de manipulation de l’opinion publique sur les réseaux sociaux, rendues possibles par l’intelligence artificielle (IA). Les auteurs décrivent des essaims d’agents-IA capables de se coordonner et de s’adapter de manière autonome pour promouvoir artificiellement un récit ou fabriquer un consensus factice autour d’une question donnée. La Fondation Descartes développe une méthodologie de détection des récits inauthentiques en ligne, en réponse à des opérations malveillantes de ce type. 

Un groupe de chercheurs, parmi lesquels Daniel Thilo Schroeder, spécialiste des manipulations des écosystèmes informationnels par l’intelligence artificielle (IA), et Jonas Kunst, professeur de communication et de psychologie sociale, décrivent l’émergence d’essaims coordonnés d’agents-IA malveillants, capables de s’organiser de façon autonome, d’infiltrer des communautés en ligne et de fabriquer de faux consensus. Sur les réseaux sociaux, ces essaims peuvent développer des profils d’utilisateurs cohérents, conserver en mémoire leurs interactions passées et ajuster leur comportement en fonction des réactions des autres utilisateurs. Ils sont également capables de se coordonner autour d’objectifs communs, tout en variant le ton, le style et le contenu des récits diffusés afin d’échapper à la détection. Enfin, ces essaims d’IA opèrent avec une supervision humaine minimale et peuvent être déployés simultanément sur plusieurs plateformes.

Des acteurs privés ou étatiques pourraient ainsi recourir à ces dispositifs pour promouvoir artificiellement sur les réseaux sociaux un récit ou fabriquer un consensus factice autour d’une question donnée. L’automatisation et l’adaptabilité de ces systèmes constituent une rupture par rapport aux campagnes de désinformation et aux ingérences numériques étrangères documentées jusqu’alors.

Selon les auteurs de l’article, l’émergence de cette menace s’inscrit dans un contexte informationnel déjà fragilisé par l’érosion du discours rationnel et critique, ainsi que par la fragmentation des écosystèmes informationnels en chambres d’écho. Ces dynamiques offrent un terrain particulièrement favorable à la manipulation des citoyens et à la diffusion de récits polarisants.

Les auteurs identifient plusieurs risques majeurs posés par les essaims d’IA. L'un d'entre eux concerne l’exposition et l’adhésion des citoyens à des consensus apparents fabriqués autour de sujets donnés. Lorsqu’ils sont confrontés à un consensus apparent émanant de multiples communautés en ligne, les individus peuvent avoir tendance à actualiser leurs croyances et leurs connaissances sur la base de ce signal social, plutôt que sur des éléments factuels. Ainsi, les actions d'essaims d’agents-IA pourraient perturber les processus cognitifs par lesquels l’information est évaluée et intégrée.

Un autre danger tient au fait que les contenus produits par ces essaims peuvent contaminer les données d’entraînement des modèles de langage utilisés par les IA conversationnelles, comme ChatGPT — un phénomène appelé "LLM grooming". En effet, ces modèles de langage s’appuient en grande partie sur les informations disponibles en ligne. En inondant potentiellement les réseaux sociaux d’informations trompeuses et de consensus artificiels, les essaims d’IA seraient donc susceptibles d’influencer indirectement les réponses produites par les IA conversationnelles elles-mêmes.

Les auteurs proposent plusieurs pistes complémentaires pour limiter le risque de manipulation de l’opinion publique que font peser sur nos démocraties les essaims coordonnés d’IA. L’une de ces pistes consiste en l’adaptation des plateformes numériques, afin de renforcer la traçabilité des contenus publiés en ligne et de faciliter la détection des comptes gérés par IA. 

Ils insistent également sur la nécessité de développer des systèmes de détection en temps réel des opérations coordonnées menées par des essaims d’agents-IA sur les réseaux sociaux. Pour les auteurs, il s’agirait de se focaliser sur l’identification de comportements inauthentiques (i.e., produits par des agents artificiels), indépendamment de la question de la véracité des informations diffusées.

Cette piste est précisément celle suivie par une initiative en développement depuis l’été 2025 au sein de la Fondation Descartes, nommée "Institut de Veille des Récits Émergents Inauthentiques" (IVREI). L’IVREI produit une détection en temps réel de l’émergence de récits poussés de manière artificielle sur les réseaux sociaux francophones. L’objectif est de pouvoir en informer le public et les médias, afin que ces derniers soient en mesure de décider de parler ou non des récits inauthentiques détectés, ou encore d’enquêter sur leur origine et leurs objectifs. L’IVREI devrait être opérationnel courant mars 2026 et pourrait contribuer à renforcer la résistance de la société française face aux manipulations informationnelles artificielles et coordonnées, quels que soient leur provenance et les objectifs poursuivis.

PARTAGER L'ARTICLE
Suivre les actualités de la désinformation
S'inscrire à la newsletter
Soutenir nos actions
faire un don
Fonds de dotation pour la création de la Fondation Descartes
8, Avenue du Président Wilson 75116 Paris.
Plus d'informations
Mentions légales
Gestion des cookies
Contactez-nous
Copyright © 2024 - Site réalisé par Monsieurcom
crosschevron-down linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram