Plus d’un contenu sur 3 sur TikTok est considéré comme “toxique” par cette étude scientifique et X n’est pas en reste

Plus d'un contenu sur 3 sur TikTok est considéré comme

La désinformation s’installe au cœur du débat public européen, et certaines plateformes semblent alimenter le feu plutôt que de l’éteindre.

Une nouvelle étude indépendante dresse un constat sans appel : TikTok et X figurent parmi les pires élèves de l’espace numérique européen, tandis que LinkedIn tire son épingle du jeu.

TikTok et X, deux foyers majeurs de désinformation

Le projet SIMODS, conduit par l’organisation française Science Feedback et plusieurs partenaires européens, vient de publier la première évaluation paneuropéenne de la désinformation en ligne.

Son objectif : mesurer, chiffres à l’appui, à quel point les grandes plateformes respectent (ou non) leurs engagements de transparence prévus par le Digital Services Act (DSA), le texte européen qui encadre désormais les géants du web.

 

Voir cette publication sur Instagram

 

Une publication partagée par CSA (@csabelge)

L’étude s’appuie sur 2,6 millions de publications, vues près de 24 milliards de fois, issues de six réseaux majeurs : Facebook, Instagram, LinkedIn, TikTok, X (ex-Twitter) et YouTube.

Cinq thématiques sensibles ont été scrutées : la guerre en Ukraine, le climat, la santé, la migration et la politique nationale.

Les résultats sont sans appel.

Sur X, la situation n’est guère plus rassurante : un tiers des contenus étudiés relèvent de la désinformation, de la haine ou de propos « borderline ».

Lire aussi :  Il fait rayonner la France depuis 76 ans et 33 800 personnes y travaillent de nos jours : joyeux anniversaire au CNRS !

À l’inverse, LinkedIn fait figure d’exception avec seulement 2 % de contenus trompeurs, prouvant qu’un autre modèle de modération est possible.

Sur LinkedIn, je vois rarement des intox ou des propos haineux. Sur TikTok, c’est une autre histoire : certaines vidéos accumulent des millions de vues sans qu’on sache si elles sont vraies ou non.Sophie, 32 ans, consultante en communication

Des algorithmes qui amplifient le faux

Autre constat inquiétant : les comptes qui diffusent des fausses informations gagnent souvent en visibilité.

Leurs publications récoltent davantage de vues et d’interactions que celles des sources fiables (une sorte de prime algorithmique à la désinformation). Un phénomène observé sur toutes les plateformes, sauf LinkedIn.

Cette dynamique révèle un biais structurel : les algorithmes de recommandation, conçus pour maximiser l’engagement, finissent par favoriser les contenus les plus polarisants, donc, souvent, les plus trompeurs.

Lire aussi :  Jusqu’à 50% de fraude sur le Certificats d’économies d’énergie et à la fin c’est le consommateur français qui en paye l’addition

LinkedIn, la preuve qu’un autre modèle est possible

Contrairement à ses concurrents, LinkedIn a pleinement collaboré avec les chercheurs en fournissant les données demandées dans le cadre du DSA.

Cette transparence a permis d’évaluer plus finement ses mécanismes internes, et de constater que ses choix de modération et de distribution de contenus limitent fortement la diffusion de fausses informations.

Un modèle vertueux qui montre qu’il est possible d’allier performance économique et responsabilité sociale.

Un signal fort pour l’Europe

Alors que certaines plateformes se désengagent du Code européen de conduite sur la désinformation, cette étude apporte enfin des données objectives pour évaluer leurs efforts réels.

On dit souvent que tout se vaut sur Internet. Ce genre d’étude prouve que non, et que certaines plateformes font bien pire que d’autres.Thomas, 45 ans, enseignant

Pour Science Feedback, c’est un tournant : la lutte contre la désinformation sort du discours pour entrer dans la mesure scientifique.

Une boussole pour les régulateurs

Les chercheurs ne comptent pas s’arrêter là. Une deuxième vague de mesure est prévue pour début 2026, avec l’ambition de suivre l’évolution des tendances et d’étendre l’étude à de nouveaux pays.

L’objectif final : créer un baromètre européen robuste de la désinformation, référence pour les institutions, les journalistes et les chercheurs.

Lire aussi :  Ce 9 octobre, la Journée mondiale de la poste met en lumière le rôle vital des facteurs dans nos campagnes

Au-delà des chiffres, un enjeu démocratique

Derrière SIMODS, on retrouve Science Feedback, une organisation fondée par Emmanuel Vincent, docteur en sciences du climat et chercheur associé au médialab de Sciences Po.

L’association applique à l’information les principes de la recherche scientifique : transparence, vérifiabilité, rigueur.

Cette démarche illustre un changement d’époque : la désinformation n’est plus seulement un problème moral ou médiatique, mais un risque systémique pour la démocratie.

Et si l’Europe veut garder un débat public fondé sur les faits, il lui faudra des outils comme celui-ci : indépendants, transparents, et capables de nommer les plateformes qui, derrière les promesses, laissent prospérer le faux.

Avatar photo

Antonin est journaliste spécialisé dans l’économie, les entreprises et les dynamiques du monde professionnel. Après quelques années passées en tant que responsable communication au sein d’un grand groupe industriel, il a choisi de mettre son expérience au service de l’information.

Habitué à décrypter les stratégies, les innovations et les transformations qui animent le tissu économique français, Antonin s’attache à rendre compréhensibles des sujets souvent perçus comme complexes.

Leave a reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *