Le réseau social a présenté mercredi 5 février son plan de bataille pour éviter toute manipulation de l’opinion publique à l’approche de la campagne américaine. Mais le dispositif est mis en place tardivement et rien ne dit qu'il atteindra ses objectifs.
Au troisième trimestre 2019, Twitter comptait 145 millions d'utilisateurs quotidiens monétisables, c'est-à-dire qui ont été exposés à une publicité sur une journée donnée. © Gage Skidmore / Flickr
En juin dernier, un montage retweeté par le président américain Donald Trump montrait la démocrate Nancy Pelosi manifestement alcoolisée lors d’une conférence de presse. Des dizaines de milliers de d’internautes avaient réagi, atterrés par le comportement de la présidente de la Chambre des représentants. Sans s’apercevoir que la vidéo avait été ralentie pour faire croire à un d’état d’ivresse.
Mettre fin aux « deepfake »
Un procédé de trucage – dans la lignée des « deepfake », une technique de synthèse d'images basée sur l'intelligence artificielle – récurrent, mais qu’il ne sera bientôt plus possible de diffuser sans encombre sur Twitter. C’est en tout cas ce que promet le réseau social. Dès le 5 mars, toute photographie, son ou vidéo publiés sur la plateforme qui aura été « significativement altéré » sera susceptible de se voir apposer un label : « média manipulé ». De nouvelles règles qui font suite au retour des utilisateurs, invités à s'exprimer à l'occasion d'une enquête mondiale.
En conséquence, tout contenu trompeur « sera réduit et ne remontera pas dans les suggestions des utilisateurs », explique le réseau social dans un blog. Certaines publications pourront même être supprimées, si elles sont susceptibles de « causer un grave préjudice ».
Un enjeu social majeur
Il faut dire que l’oiseau bleu était sous pression. Après les campagnes d’influence étrangère qui avaient marqué la campagne américaine de 2016 et à l’approche du prochain scrutin, prévu pour novembre 2020, la plateforme en ligne était sommée par les autorités de prendre ses responsabilités. Régulièrement accusé de colporter des propos haineux et autres “fake news”, le dirigeant de Twitter avait plusieurs fois été entendu par la commission des renseignements du Sénat. En octobre, le site avait finalement renoncé aux publicités politiques. Une rupture avec sa vision historique de défense de la liberté d’expression la plus poussée.
Désormais, sa crédibilité est en jeu. Alors que 68% des Américains estiment que les fausses informations affectent réellement la confiance de la population dans les institutions selon un sondage du centre de recherche Pew, l’enjeu social est majeur. La diffusion de fausses nouvelles est considérée comme un problème de société plus grave que le terrorisme, le racisme ou le sexisme.
Alors, pour repérer les contenus problématiques, des équipes du monde entier travailleront à leur identification. Et compteront notamment sur les signalements, « même si nous voulons réduire le fardeau des utilisateurs », a précisé Yoel Roth, cadre de Twitter responsable de l’intégrité du site. Seront ainsi combinées intelligence artificielle et ressources humaines, dans un seul objectif : lutter « contre la désinformation ».
L’automatisation de la modération pose problème
Ce changement de politique est un pas en avant dont il faut se réjouir. Mais qui soulève de nombreuses interrogations. Quels contenus passeront les tests ? La publication en octobre par Hillary Clinton d’une lettre parodique signée JFK par exemple, sera-t-elle désormais automatiquement reléguée ?
« Les images et vidéos satiriques risquent de nous donner du fil à retordre, admet Yoel Roth. Si nous nous trompons, il y aura une procédure d’appel. »
Sans compter que la censure de contenus a posteriori en partie par des intelligences artificielles pourrait créer des tensions supplémentaires. « L’anonymat, la non co-présence ou la modération affichée - mais éventuellement aléatoire dans son application, peuvent conduire à exacerber la charge conflictuelle des propos tenus par les participants », expliquent Fabienne Greffet et Stéphanie Wojcik dans le magazine Réseaux. Une mesure d’apaisement et de sécurité qui pourrait finalement nuire à une collectivité « homogène et pacifiée ».
Une « gouvernance algorithmique » qui nuit à l’information
Surtout, la question de la désinformation sur les réseaux ne se limite pas qu'à la diffusion de montages vidéo par des « trolls ». Francesca Musiani, sociologue au CNRS, rappelle dans une conférence de presse organisée par l'organisme de recherche que Twitter met en place des algorithmes qui nous « gouvernent ». En classant et filtrant des informations, ils peuvent inonder notre fil de nouvelles approximatives, voire fausses, mais qui ont fait le « buzz ». Des systèmes de viralité et de recommandation qui alimentent des formes de désinformation.
Certes, si ces algorithmes sont exploités pour diffuser des fausses annonces, « les acteurs du net peuvent se servir des mêmes armes pour combattre cette tendance, explique la sociologue. Mais encore faut-il qu’ils soient assez neutres pour le faire. »
De fait, la valorisation des contenus « choc » est directement liée à l’architecture technique de l’entreprise et à ses intérêts économiques. « Cela interroge sa légitimité à nettoyer les contenus. »
Les top tweet apparaissent de manière continue à l'utilisateur en fonction de la localisation et des personnes suivies.
Effet de bulle et confirmation d’hypothèse
Le code informatique opéré crée aussi une « bulle de filtrage », selon l’expression d’Eli Pariser, auteur de l’ouvrage « What The Internet is Hiding From You » [Ce qu’Internet vous cache, 2011]. L’utilisateur est conforté dans ses opinions, par l’exposition à des idées similaires. Les réseaux deviennent ainsi des « bastions thématiques et idéologiques, des outils de confirmation plutôt que d’information », explique la sociologue. Ce qui « conduit, in fine, à la négation du débat », développe Udrus Fassassi, professeur de droit public.
« Bien que je pense que la technologie “deep fake” pose une réelle menace, ce type de manipulation nécessitant une technologie basique montre qu’il existe une plus grande menace. Beaucoup d’entre nous sont prêts à croire le pire concernant les gens avec lesquels nous ne sommes pas d’accord », déclarait le professeur américain Hany Farid il y a quelques jours au micro de CNN. Des « cocons cognitifs » que formalisait déjà le juriste Cass Sustein, que le prisme déformant des réseaux sociaux entretient.
Marine Godelier