Désinformation : YouTube et X n'ont pas bougé le petit doigt en amont des européennes

YouTube est la plateforme la moins performante, selon le rapport. ©Flickr/Creative Commons/Focal Foto

Youtube et X ont largement échoué à prendre des mesures efficaces pour lutter contre la désinformation en amont des élections européennes de juin, d'après une analyse menée sur plus de 1 300 messages sur les réseaux sociaux dans 26 pays de l'UE.

Le rapport, publié mardi par Maldita.es, une organisation espagnole de fact checking fondée en 2018, analyse la manière dont cinq géants du numérique - Facebook, Instagram, TikTok, X et Youtube - ont démystifié la désinformation à travers le continent, avant l'élection de l'UE.

Les posts analysés ont été collectés par des organisations de fact checking (vérification des faits), participant au projet Elections24Check au cours des quatre mois précédant les élections et allant jusqu'au 6 juin, premier jour du scrutin au sein de l'UE.

Les données sont sans appel : YouTube s'est montrée la moins performante, et n'a pris aucune mesure tangible à l'encontre des 75 % des contenus relayant de fausses informations, et dans 80 % des cas où elle a agi, le contenu a été affublé d'une simple bannière ou a présenté un défaut d'identification de la source, sans expliquer pourquoi le contenu lui-même n'était pas fiable. Certaines de ces vidéos ont atteint 500 000 vues, selon le rapport.

Un porte-parole de YouTube a déclaré à Euronews que l'entreprise avait "des politiques strictes en matière de désinformation, que [ses] équipes travaillaient 24 heures sur 24 pour les appliquer rigoureusement, y compris pendant la période électorale européenne".

"Nous avons également connecté les électeurs à travers l'UE à des sources d'information faisant autorité grâce à notre système de recommandation ", a ajouté le porte-parole.

Des plateformes déjà soumises à des enquêtes de la Commission

De même, le réseau social X n'a pris aucune mesure tangible dans 70 % des cas, et les notes explicatives n'étaient visibles que dans 15 % des messages déjà étiquetés par des fact checkers européens indépendants.

Parmi les 20 messages les plus viraux qui n'ont fait l'objet d'aucune action de la part des plateformes, 18 ont été hébergés par X et ont été vus plus de 1,5 million de fois chacun.

Dans l'ensemble, les plateformes ont pris le moins de mesures à l'égard des messages de désinformation suivants : ceux ciblant les migrants (57 % des cas n'ont fait l'objet d'aucune mesure), suivis de ceux concernant l'intégrité de l'élection (56 %). YouTube et TikTok ont obtenu un taux de réponse de 0 % pour la désinformation ciblant les migrants.

Les grandes plateformes en ligne sont légalement tenues de prendre des mesures pour lutter contre la désinformation en vertu de la loi sur les services numériques de l'UE (Digital Services Act - DSA), par exemple en étiquetant ou en supprimant des contenus.

En décembre 2023, la Commission européenne a ouvert une enquête au titre de la DSA sur la manière dont X gérait la gestion des risques, la modération des contenus, la transparence de la publicité et l'accès aux données pour les chercheurs.

Facebook et Instagram : des résultats légèrement meilleurs

Selon le rapport, la plateforme TikTok, détenue par des Chinois, a réussi à prendre des mesures réelles pour 40 % des messages relevant de la désinformation.

Ce chiffre est de 70 % pour Instagram, et de 88 % pour Facebook. Alors que l'option de Facebook face à la désinformation consistait à étiqueter avec du fact checking, mais à garder le contenu original en ligne et à contextualiser (77 %), TikTok supprimait les contenus litigieux (32 %).

Les plateformes de Meta font également l'objet d'une enquête en cours dans le cadre de la DSA. La Commission a déclaré en avril redouter que ces dernières ne soient perméables aux réseaux russes, et qu'elles ne disposaient pas des outils appropriés pour lutter contre la publicité mensongère et les contenus politiques litigieux.

Bytedance, la société mère de TikTok, fait également l'objet d'une enquête : en février, la Commission a commencé à enquêter sur la protection des mineurs, la transparence de la publicité, l'accès aux données pour les chercheurs, ainsi que sur la gestion des risques liés à la conception addictive et aux contenus préjudiciables.

Un porte-parole de la Commission a déclaré à Euronews qu'à la suite des lignes directrices destinées aux plateformes dans le cadre de l'ASD en période électorale, les entreprises "étaient très bien préparées" et qu'"aucun incident majeur n'a eu lieu" au cours du week-end électoral.

Cet article a été mis à jour avec les commentaires de la Commission et de YouTube.

© Euronews