#FACEBOOK #CIA #MOSSAD Fausses nouvelles: «WhatsApp constitue le plus grand défi»

Fausses nouvelles: «WhatsApp constitue le plus grand défi»

 PAR 

Aux États-Unis et au Brésil, deux campagnes électorales, des colis piégés artisanaux et une tuerie antisémite ont tragiquement remis sur le devant de la scène la question de la régulation de ce qui s’écrit sur Internet. Alors que la France a toujours en préparation une loi « contre la manipulation de l’information », Mediapart a interrogé Luiz Fernando Marrey Moncau, coordinateur d’un atlas mondial de la législation sur les contenus.

C’était il y a quinze jours, une éternité. Facebook faisait visiter à la presse sa “war room”, une salle dédiée à la lutte contre la manipulation des élections brésiliennes et états-uniennes. L’heure était à la chasse à la propagande, aux faux comptes et fausses nouvelles – un temps qui semble désormais bien loin. Ni l’annonce,vendredi 26 octobre, de la fermeture de comptes Facebook pilotés depuis l’Iran ni celle, une semaine plus tôt, de nouveaux soupçons d’ingérence russe par les autorités n’ont fait les gros titres.

La campagne électorale qui a conduit, dimanche 28 octobre, Jair Bolsonaro à la présidence du Brésil a été marquée par un torrent de fausses informations, propagées notamment grâce à l’application de messagerie WhatsApp (qui appartient à Facebook). La campagne a aussi fait des victimes : « Bolsonaro stimule cette violence par son discours radical, expliquait à Mediapart Marcos Alvarez, sociologue à l’université de São Paulo (USP). Le passage de la rhétorique à l’acte n’est ni simple ni automatique, mais il a plus de chances de se produire dans certains contextes. Bolsonaro ne peut pas se dédouaner. »

La veille, à Pittsburgh (États-Unis), Robert Bowers tuait onze personnes de confession juive réunies dans une synagogue, ajoutant un terrorisme antisémite d’extrême droite à la polémique qui, dans une Amérique en pleine campagne pour les élections de mi-mandat, était née quelques jours plus tôt de l’envoi de colis piégés à destination de personnalités démocrates ou ouvertement opposées à Donald Trump. Robert Bowersétait un utilisateur assidu du réseau social Gab, fermé depuis (par son hébergeur), connu pour accueillir de nombreux internautes de la droite dure et des nationalistes blancs, où il avait partagé un flot d’injures antisémites et de théories du complot.

Le fourgon blanc de Cesar Sayoc, accusé d'avoir expédié des bombes artisanales, photographié en avril 2018. © ReutersLe fourgon blanc de Cesar Sayoc, accusé d’avoir expédié des bombes artisanales, photographié en avril 2018. © Reuters

Sayoc, l’homme accusé d’avoir envoyé les bombes artisanales, a montré le « profil trop familier d’un extrémiste moderne, radicalisé en ligne et aspiré dans un tourbillon de colère partisane », écrit le New York Times, qualifiant sa camionnette de « fil Facebook sur roues ».

« Non seulement la droitisation des électorats débouche dorénavant sur des prises de pouvoir dans de grands pays (Brésil, Italie), mais elle s’accompagne désormais d’une radicalisation à ses marges, celles-ci estimant que les mesures légales ne seront jamais suffisantes au maintien de ce qu’elles estiment être l’équilibre culturel et racial »écrit dans Mediapart le chercheur Nicolas Lebourg.

Au confluent de la violence verbale des discours de Trump et Bolsonaro, des passages à l’acte d’extrémistes meurtriers et de résultats électoraux qui portent les extrêmes au plus haut, les réseaux sociaux sont tout à la fois miroir, exutoire et carburant de cette radicalisation politique à droite, incapables de maîtriser ce qui se passe sur leurs sites et applications : le costume est trop grand, les robots trop nombreux.

Fred Turner, auteur de l’ouvrage de référence Aux sources de l’utopie numérique, étudie la culture de la Silicon Valley depuis vingt ans. Dans un entretien publié par la revue Logic (numéro 3), il donne l’explication suivante à l’incapacité des Google, Facebook, Twitter… de résoudre les problèmes qu’ils affrontent aujourd’hui, qu’il s’agisse de la violence des propos ou de la manipulation des discours : des ingénieurs n’en sont tout simplement pas capables. « La culture de l’ingénierie consiste à fabriquer le produit. Si vous faites fonctionner le produit, c’est tout ce que vous avez à faire pour respecter le mandat éthique de votre profession. (…) Si vous fabriquez quelque chose qui fonctionne, vous avez fait ce qu’il fallait sur le plan éthique. C’est à d’autres personnes de déterminer la mission sociale de la chose. (…) Je pense donc que les ingénieurs, chez Facebook et dans d’autres entreprises, ont été un peu déconcertés lorsqu’on leur a dit que les systèmes qu’ils avaient construits – des systèmes qui fonctionnent manifestement très bien et dont l’efficacité se mesure par les profits qu’ils génèrent (…) – corrompent la sphère publique. Et qu’ils ne sont pas seulement des ingénieurs qui construisent de nouvelles infrastructures – ils sont des gens des médias. »

Les règles qui gouvernent les médias doivent-elles s’appliquer à ces plateformes où tout un chacun dispose aujourd’hui d’un accès à une parole publique instantanément répercutée aux quatre coins du monde ? La question de la régulation du verbe ne se pose pas dans les mêmes termes dans un pays comme la France où propos discriminants, incitations à la haine et diffusion de fausses nouvelles sont hors la loi, et aux États-Unis qui les autorisent en vertu d’une liberté d’expression protégée par le premier amendement de la Constitution, et où Mark Zuckerberg, le patron de Facebook, peut justifier ainsi le maintien en ligne de propos négationnistes : « Je suis juif et il y a des personnes qui nient l’existence de l’Holocauste. Je trouve cela très choquant. Mais au bout du compte, je ne crois pas que notre plateforme doive supprimer ce genre de propos parce que je pense qu’il y a des choses sur lesquelles certaines personnes se trompent. »

En Europe, c’est une réglementation de l’activité des plateformes, et notamment en période électorale, qui est à l’ordre du jour. Réuni à Strasbourg, le Parlement européen s’est penché sur la question mardi 23 octobre, lors d’un débat consacré aux suites de l’affaire Cambridge Analytica, et à l’issue duquel il a été demandé à Facebook la réalisation d’un audit indépendant. Protection des données personnelles et protection de la “sincérité des scrutins”, même combat.

Pour la commissaire Věra Jourová, des règles strictes doivent être mises en place : « Nos règles, pratiques et habitudes électorales découlent de notre passé non numérique. Les limites des dépenses électorales, les règles strictes en matière de publicité politique, y compris la transparence sur qui fait campagne et qui paie, la période de silence, le rôle des médias dans la désinformation – toutes les règles hors ligne – doivent être appliquées en ligne. Une chose est claire : les prochaines élections ne se dérouleront pas comme d’habitude et nous ne pouvons pas les traiter comme si elles l’étaient. Nous ne pouvons pas être naïfs et nous avons très peu de temps pour agir. »

Pour l’eurodéputée allemande Ska Keller (Verts/ALE), « nous ne pouvons pas laisser à des entreprises comme Facebook le soin de décider qui peut voir quel contenu politique juste avant les élections. Nous devons veiller à ce que tous les électeurs aient accès à la même information et nous devons interdire le microciblage de la publicité politique »« Si les données sont manipulées à des fins de publicité politique, les élections sont manipulées. Si les élections sont manipulées, elles nous replongent dans une ère prédémocratique et les élections deviennent une farce », redoute sa compatriote Cornelia Ernst (GUE/NGL), également favorable à l’interdiction de la publicité ciblée.

Au bout du compte, le Parlement estime que « le droit électoral doit être adapté ». La Commission, de son côté, a fait signer aux plateformes un code de conduite sur la même ligne, prévoyant notamment de « garantir la transparence de la publicité politique »« démontrer l’efficacité des efforts visant à fermer les faux comptes »et « établir des systèmes et des règles de marquage clairs pour les robots afin de s’assurer que leurs activités ne peuvent pas être confondues avec les interactions humaines ».

En France, le gouvernement en est toujours à vouloir réprimer plus sévèrement les contenus eux-mêmes (lire l’article de Jérôme Hourdeaux : Vers une répression accrue des propos racistes sur Internet). Quant à la loi « contre la manipulation de l’information », si elle évoque la transparence de la publicité (on devrait savoir « qui verse à la plateforme des rémunérations en contrepartie de la promotion de contenus d’information se rattachant à un débat d’intérêt général »), c’est surtout la diffusion de fausses nouvelles qui est visée, sans pour autant que celles-ci ne soient précisément définies : le texte prévoit de réprimer les « allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir ».

Autant dire un grand fourre-tout. « Avant de légiférer en portant atteinte à la liberté d’expression et de communication, il convient de s’interroger sur les causes profondes du malaise exploité par les phénomènes de manipulation de l’information. Pourquoi le “complotisme” séduit-il ? Pourquoi une telle polarisation des opinions publiques ? », s’interroge le rapport de la commission des lois rédigé par le sénateur (LR) Christophe-André Frassa. Le texte revient au Sénat mardi 6 novembre.

Luiz Fernando Marrey Moncau. © DRLuiz Fernando Marrey Moncau. © DR

Au sein du Center for Internet and Society de l’université Stanford (États-Unis), Luiz Fernando Marrey Moncau coordonne le projet WILMap, qui présente l’éventail, dans de très nombreux pays, des décisions, législations et projets de loi encadrant la responsabilité juridique des intermédiaires de l’Internet, plateformes, moteurs de recherche, réseaux sociaux, blogs et sites hébergeant des commentaires. Interrogé par Mediapart entre les deux tours de l’élection présidentielle de son pays, le chercheur brésilien revient sur le rôle particulier de WhatsApp dans la campagne et regrette, sur un plan plus large, que l’« on ne voi[e] venir aucune mesure concrète qui n’affaiblisse pas la liberté d’expression ».

Est-il fréquent au Brésil de recevoir des messages “sponsorisés” dans WhatsApp ?Je n’ai jamais entendu parler de contenus reçus par les utilisateurs et identifiés comme contenus sponsorisés. D’ailleurs, WhatsApp n’autorise pas les utilisateurs à promouvoir des contenus. C’est différent de Facebook, où vous pouvez promouvoir des contenus qui sont signalés comme tels.

Dans WhatsApp, vous ne pouvez pas savoir si quelqu’un a payé quelqu’un d’autre pour promouvoir un contenu, c’est un des problèmes posés par cette application. Vous ne savez pas qui expédie des messages pour de l’argent et qui le fait “sincèrement”.

Comment les messages se sont-ils diffusés ?

Sur WhatsApp, beaucoup de gens sont membres de groupes qui peuvent accueillir jusqu’à 256 personnes, et vous pouvez tout partager, et les messages se répandent très rapidement au sein des groupes d’amis, des groupes familiaux. Ce n’est pas interdit. Il s’agit techniquement d’individus qui exercent leur droit à débattre de la politique. Une des mesures que WhatsApp a prises pour combattre les fausses informations est d’indiquer quand un contenu est transféré – apparemment, ce n’est pas efficace.

Le problème, c’est la diffusion de contenu faux ou fabriqué.

Mais qui crée ces contenus ?

Jusqu’à présent, les preuves indiquent plutôt que le contenu payé par les entreprises provient des campagnes des partis politiques. Ce qui est très important, car les entreprises ne peuvent pas financer les campagnes électorales au Brésil. Si une entreprise donne de l’argent pour la diffusion du message, c’est déjà illégal, même si le message est vrai. Puis ces contenus payés se mélangent avec ceux de véritables supporters du candidat. Voilà ce qui se passe sur WhatsApp.

Sur Twitter et Facebook, de nombreux comptes ont été supprimés en raison de “comportements inauthentiques” [“inauthentic behavior” selon les termes propres à Facebook – ndlr]. Mais il existe aussi des pages à visées politiques, qui ont un très haut niveau d’engagement et qui, parmi les fausses nouvelles, diffusent aussi des contenus légitimes. Il est donc vraiment difficile d’identifier qui est en train de répandre de fausses infos.

Comment est-il possible de repérer les fausses infos ?

Un des problèmes avec WhatsApp, c’est qu’il est différent de Facebook ou Twitter d’une manière très spécifique. Sur Facebook ou Twitter, la plupart des choses que les gens font sont publiques, alors que dans WhatsApp, les messages sont chiffrés, même dans les groupes. Si vous ne faites pas partie du groupe, vous n’y avez pas accès. Techniquement, même WhatsApp ne peut pas voir ce qui se passe.

Donc si quelqu’un répand de fausses informations, c’est très difficile à identifier dès le début, vous allez vous en apercevoir seulement quand ça devient massif, ou si quelqu’un fait suivre à une agence de fact-checking, par exemple. Alors cette agence pourra dire “attention, il s’agit de fausses infos”, mais ne pourra pas atteindre tous les utilisateurs visés, parce que vous ne savez pas quels chemins ce message a empruntés, dans quels groupes il a été partagé, qui l’a lu, qui ne l’a pas lu, qui a regardé la vidéo, etc.

Il est donc plus facile de diffuser de fausses infos sur WhatsApp, bien que ce soit une messagerie privée et pas une plateforme publique ?  

En raison du cryptage, il est plus difficile d’identifier la personne à l’origine d’un contenu, illégal, faux, diffamatoire par exemple, sur WhatsApp que sur Facebook. Vous ne pouvez pas retracer le message jusqu’à l’éditeur original – du moins c’est ce que nous pensons, nous ne savons pas exactement ce que voit WhatsApp. Donc il est probablement plus sûr de diffuser ce faux contenu sur WhatsApp que sur Facebook.

Mais sur WhatsApp, vous avez besoin d’un numéro de téléphone, qui peut être pisté par les autorités ?

Oui, mais il faut d’abord identifier le numéro de téléphone qui a émis le message en premier. Ensuite, parmi les choses révélées par le quotidien Folha, il y a le fait que les campagnes utilisent des numéros de téléphone en dehors du Brésil, c’est-à-dire mettent en œuvre des techniques pour rendre plus difficiles les poursuites.

Existe-t-il au Brésil une réglementation spécifique contre la diffusion de fausses informations ?

Avant chaque élection, le Congrès met à jour la loi électorale, pour l’améliorer, en se fondant d’abord sur l’Internet et, dans un deuxième temps, sur les développements technologiques.

Des dispositions préventives obligent les candidats à créer des comptes officiels pour diffuser leurs informations. De plus, des articles s’appliquent à la diffusion de faux contenus. Les entreprises ne peuvent pas promouvoir un contenu en faveur d’un candidat, et l’on ne peut pas prétendre être quelqu’un d’autre afin de diffuser du contenu. Cela pourrait donc concerner l’utilisation des robots et des faux comptes.

Ces campagnes sur WhatsApp ont-elles réellement de l’influence, alors que la télévision reste puissante ?

Deux choses. Si je prends en compte ma propre expérience, oui, c’est très important. WhatsApp est utilisé par 120 millions de personnes au Brésil. Tous les gens que je connais parlent de politique sur WhatsApp, et dans chaque groupe auquel je participe – et il y en a beaucoup –, vous voyez souvent des contenus transférés.

Mais en second lieu, il est difficile d’évaluer si les gens débattent de politique ou non, parce que les messages sont cryptés et que nous n’avons pas de données statistiques à ce sujet. Pour mesurer l’effet sur le vote, il y a beaucoup de facteurs différents à considérer. On ne sait pas si une personne lit certains contenus, si elle change d’opinion ou non.

Avant que l’élection commence, le président du Tribunal supérieur électoral (TSE), Luiz Fux, a dit que l’élection pourrait être annulée ou inversée s’il y avait des preuves d’utilisation massive de fausses nouvelles en faveur d’un candidat. C’était une déclaration très forte, qui a inquiété beaucoup de gens parce que la justice s’immisce déjà grandement dans le processus politique, ici, au Brésil. Mais comment peut-on mesurer l’impact des fausses nouvelles ? C’est vraiment un problème. La nouvelle présidente du TSE, Rosa Weber, a adopté une approche très prudente, sans envisager une annulation des élections.

« Il ment sur WhatsApp » : manifestation contre Bolsonaro, le 20 octobre 2018 à São Paulo. © Reuters« Il ment sur WhatsApp » : manifestation contre Bolsonaro, le 20 octobre 2018 à São Paulo. © Reuters

Les agences de fact-checking sont-elles suffisantes pour combattre les fausses informations ?

Elles font un travail très important, nécessaire. Le problème de la diffusion de la désinformation a aussi poussé les médias traditionnels à faire plus de fact-checking, ce qui est très bien. Mais je ne sais pas si cela peut être le seul remède à ce problème. Parce que quand une fausse nouvelle se répand, elle atteint un certain nombre de gens, et le fact-checking n’atteint pas le même nombre de personnes.

De plus, ces contenus ne sont pas toujours produits avec les mêmes ressources, ou les mêmes développements techniques, qui permettent de capter l’attention du public.

Par exemple, une fausse info a été identifiée, Globo, la plus grande télé au Brésil, en a parlé, a expliqué ce qui était faux, et leur vidéo a été poussée sur WhatsApp, mais c’est un média différent, et ce qui fonctionne pour la télévision ne fonctionne pas forcément sur WhatsApp. Sur WhatsApp, ce qui marche c’est une image, une vidéo de 20 secondes… Et ce que Globo a fait, c’est une vidéo de trois minutes, ce qui est déjà long à la télé mais encore plus sur WhatsApp où les gens saisissent les informations très rapidement.

Donc le fact-checking fonctionne et peut améliorer les choses en disant très rapidement aux gens ce qui est faux, ce qui ne l’est pas. Mais ça ne peut pas être la seule solution.

Quelles solutions voyez-vous ?

Les compagnies ont fait de gros progrès sur les différentes plateformes, mais pas WhatsApp. WhatsApp est probablement le plus important défi à relever.

Une choses très importante est qu’on ne voit venir aucune mesure concrète qui n’affaiblisse pas la liberté d’expression. Même de la part de personnes qui la défendent réellement, dans différents procès ici au Brésil, comme quand un juge a bloqué WhatsApp parce que l’application refusait de donner accès aux messages d’une personne faisant l’objet d’une enquête. Beaucoup de groupes de la société civile ont alors défendu la liberté d’expression, l’innovation… Mais avec la montée de Bolsonaro dans les sondages, de nombreux groupes ont demandé à WhatsApp de prendre des mesures dont on peut se demander si elles sont proportionnées.

Ce qui a été aussi proposé, c’est que WhatsApp réduise de vingt à cinq le nombre de fois où un message peut être transféré, comme en Inde, ou limite la création de nouveaux groupes, ou le nombre de personnes dans un groupe. On ne peut pas éliminer les fausses infos mais on peut faire qu’elles se répandent plus lentement, et permettre aux fact-checkers et à d’autres initiatives de les combattre avant que le mal soit répandu.

Les mesures mises en place par les différentes plateformes pour freiner les fausses nouvelles ont montré leur inefficacité. Quelles autres mesures peuvent être prises ?

Au Brésil, le Tribunal supérieur électoral a considéré qu’il y avait eu d’importants progrès, mais il y a toujours ce retard sur la prochaine génération de campagnes. C’est pourquoi les révélations du quotidien Folha sont importantes, elles montrent que les choses sont plus évidentes qu’elles n’en ont l’air : il y a de nouveaux intermédiaires qui commercialisent la distribution massive de contenus.

C’est un chemin vers où diriger les investigations : comment fonctionnent ces intermédiaires, où récupèrent-ils les bases de données d’utilisateurs ? Il y a des preuves qu’ils peuvent récupérer des infos publiques sur Facebook, et ensuite des numéros de téléphone, et répandre le contenu sur WhatsApp. Ces opérations fonctionnent en croisant les plateformes.

Mon impression est que les autorités ne comprennent pas réellement comment cet écosystème fonctionne, mais ce sont des sujets qui peuvent être anticipés. Ce sera probablement trop tard pour cette élection, parce que ces révélations sont survenues entre les deux tours, et que les parlementaires étaient déjà élus. Mais il y a un terrain pour de nouvelles investigations.

Il y a de nouvelles élections dans deux ans, et dans quatre ans. Beaucoup peut être fait pour s’y préparer. On parle déjà beaucoup de fausses vidéos, qui peuvent faire dire à des candidats ce qu’ils ou elles n’ont pas dit. Il faut commencer à travailler maintenant, se coordonner pour 2020 et 2022.

Effigies de Mark Zuckerberg, brandies lors d'une manifestation à Bruxelles à l'occasion de sa venue au Parlement européen, en mai 2018. © ReutersEffigies de Mark Zuckerberg, brandies lors d’une manifestation à Bruxelles à l’occasion de sa venue au Parlement européen, en mai 2018. © Reuters

Cette utilisation de WhatsApp aurait-elle pu être anticipée, freinée ?

Lors de la précédente élection présidentielle au Brésil, nous avons décrit l’usage des bots et du spam sur WhatsApp. Donc on ne peut pas dire qu’il s’agisse d’un problème récent. Il est seulement devenu plus massif. Il y a déjà eu de gros problèmes de spams lors des dernières élections, mais il ne s’agissait pas de contenus réguliers d’une campagne répandus par des intermédiaires. Aujourd’hui, nous avons un problème différent, des contenus fabriqués et une sorte de coordination entre des agents multiples pour répandre ces informations. C’est une nouvelle étape.

Et nous avons des raisons de penser que cela va devenir plus sophistiqué lors des prochaines élections. Donc le travail ne s’arrête pas après cette élection, il doit être poursuivi sans relâche.

Pensez-vous qu’il soit utile de freiner, voire d’interdire les messages automatiques, envoyés par des “bots” ?

Il faut d’abord tenir compte du fait que les bots peuvent être très utiles et utilisés de façon légitime. Les problèmes se posent quand vous avez des opérations coordonnées de comptes qui ne se présentent pas comme des robots… Je ne dirais pas qu’il faut interdire les robots, ou les limiter, mais nous avons besoin d’accroître la transparence pour savoir qui sont les personnes réelles et qui sont les robots, et comment ces robots se coordonnent pour diffamer ou disséminer des fausses infos, ce qui est illégal.

Une régulation internationale est-elle nécessaire, une coordination, puisque ces problèmes surviennent dans différents pays ?

Oui, je pense qu’il existe un besoin de coopération internationale, l’ONU peut être un endroit adéquat, surtout si vous abordez le problème sous l’angle de la liberté d’expression. Il existe un rapporteur spécial pour la liberté d’expression qui peut collecter des informations auprès des différents pays, des autorités, des ONG. Ici, l’Organisation des États américains a aussi un rapporteur spécial pour la liberté d’expression, qui a déjà travaillé sur ces questions.

Dites aux autorités européennes qu’elles doivent agir maintenant pour se préparer aux prochaines élections, sinon il sera trop tard. Un jour ou l’autre, les agences de marketing et d’autres groupes d’intérêt rattraperont leur retard.

La pression exercée sur les entreprises comme Facebook et Twitter est-elle suffisante ? Faut-il légiférer ?

Le problème est que l’on parle de lois qui essaient de cibler les fausses infos mais qui créent des espaces pour attenter à la liberté d’expression, supprimer des contenus sur Internet. Nous sommes toujours en train d’essayer d’éviter de mauvaises lois pour résoudre le problème. Il faut trouver des espaces de coopération entre les différents acteurs, la société civile, les plateformes, les gouvernements… Les façons dont les compagnies essaient de combattre les fausses infos, leurs expériences, doivent être comparées pour identifier les meilleurs pratiques. Il reste beaucoup à faire.Les compagnies réagissent, cela va leur prendre un peu de temps pour rattraper leur retard. Mais elles ont déjà fait beaucoup pour combattre le spam ou la pédopornographie, par exemple. Elles vont s’améliorer. Je pense que nous devons vraiment attendre de voir les résultats qu’elles peuvent obtenir avant de commencer à réguler et interdire, ou de créer des infractions contre ce que les gens disséminent, car cela peut avoir des effets collatéraux terribles en matière de liberté d’expression.

Publicités

Une réflexion sur “#FACEBOOK #CIA #MOSSAD Fausses nouvelles: «WhatsApp constitue le plus grand défi»

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s