Un groupe de chercheurs, parmi lesquels Daniel Thilo Schroeder, spécialiste des manipulations des écosystèmes informationnels par l’intelligence artificielle (IA), et Jonas Kunst, professeur de communication et de psychologie sociale, décrivent l’émergence d’essaims coordonnés d’agents-IA malveillants, capables de s’organiser de façon autonome, d’infiltrer des communautés en ligne et de fabriquer de faux consensus. Sur les réseaux sociaux, ces essaims peuvent développer des profils d’utilisateurs cohérents, conserver en mémoire leurs interactions passées et ajuster leur comportement en fonction des réactions des autres utilisateurs. Ils sont également capables de se coordonner autour d’objectifs communs, tout en variant le ton, le style et le contenu des récits diffusés afin d’échapper à la détection. Enfin, ces essaims d’IA opèrent avec une supervision humaine minimale et peuvent être déployés simultanément sur plusieurs plateformes.
Des acteurs privés ou étatiques pourraient ainsi recourir à ces dispositifs pour promouvoir artificiellement sur les réseaux sociaux un récit ou fabriquer un consensus factice autour d’une question donnée. L’automatisation et l’adaptabilité de ces systèmes constituent une rupture par rapport aux campagnes de désinformation et aux ingérences numériques étrangères documentées jusqu’alors.
Selon les auteurs de l’article, l’émergence de cette menace s’inscrit dans un contexte informationnel déjà fragilisé par l’érosion du discours rationnel et critique, ainsi que par la fragmentation des écosystèmes informationnels en chambres d’écho. Ces dynamiques offrent un terrain particulièrement favorable à la manipulation des citoyens et à la diffusion de récits polarisants.
Les auteurs identifient plusieurs risques majeurs posés par les essaims d’IA. L'un d'entre eux concerne l’exposition et l’adhésion des citoyens à des consensus apparents fabriqués autour de sujets donnés. Lorsqu’ils sont confrontés à un consensus apparent émanant de multiples communautés en ligne, les individus peuvent avoir tendance à actualiser leurs croyances et leurs connaissances sur la base de ce signal social, plutôt que sur des éléments factuels. Ainsi, les actions d'essaims d’agents-IA pourraient perturber les processus cognitifs par lesquels l’information est évaluée et intégrée.
Un autre danger tient au fait que les contenus produits par ces essaims peuvent contaminer les données d’entraînement des modèles de langage utilisés par les IA conversationnelles, comme ChatGPT — un phénomène appelé "LLM grooming". En effet, ces modèles de langage s’appuient en grande partie sur les informations disponibles en ligne. En inondant potentiellement les réseaux sociaux d’informations trompeuses et de consensus artificiels, les essaims d’IA seraient donc susceptibles d’influencer indirectement les réponses produites par les IA conversationnelles elles-mêmes.
Les auteurs proposent plusieurs pistes complémentaires pour limiter le risque de manipulation de l’opinion publique que font peser sur nos démocraties les essaims coordonnés d’IA. L’une de ces pistes consiste en l’adaptation des plateformes numériques, afin de renforcer la traçabilité des contenus publiés en ligne et de faciliter la détection des comptes gérés par IA.
Ils insistent également sur la nécessité de développer des systèmes de détection en temps réel des opérations coordonnées menées par des essaims d’agents-IA sur les réseaux sociaux. Pour les auteurs, il s’agirait de se focaliser sur l’identification de comportements inauthentiques (i.e., produits par des agents artificiels), indépendamment de la question de la véracité des informations diffusées.
Cette piste est précisément celle suivie par une initiative en développement depuis l’été 2025 au sein de la Fondation Descartes, nommée "Institut de Veille des Récits Émergents Inauthentiques" (IVREI). L’IVREI produit une détection en temps réel de l’émergence de récits poussés de manière artificielle sur les réseaux sociaux francophones. L’objectif est de pouvoir en informer le public et les médias, afin que ces derniers soient en mesure de décider de parler ou non des récits inauthentiques détectés, ou encore d’enquêter sur leur origine et leurs objectifs. L’IVREI devrait être opérationnel courant mars 2026 et pourrait contribuer à renforcer la résistance de la société française face aux manipulations informationnelles artificielles et coordonnées, quels que soient leur provenance et les objectifs poursuivis.
