L’UE à l’assaut de la désinformation
Le 4 décembre 2018, l’Union européenne a présenté un plan d’action en vue d’intensifier les efforts pour contrer la désinformation en Europe et au-delà (Source de l’illustration : Youtube)
Afin de protéger ses systèmes démocratiques et ses débats publics, et dans la perspective des élections européennes de 2019 comme de plusieurs élections nationales et locales qui auront lieu dans les États membres d’ici 2020, l’Union européenne a présenté, le 5 décembre, un plan d’action en vue d’intensifier les efforts pour contrer la désinformation en Europe et au-delà.
Après avoir dressé le bilan des progrès déjà accomplis et à la suite de l’appel des dirigeants européens de juin 2018 à protéger les systèmes démocratiques de l’Union, la Commission européenne et la haute représentante Federica Mogherini ont présenté des mesures concrètes pour combattre la désinformation, notamment par la création d’un système d’alerte rapide et par la surveillance étroite de la mise en œuvre du code de bonnes pratiques signé par les plateformes en ligne. Le plan d’action prévoit également une augmentation des ressources consacrées à cet enjeu. Le plan d’action met l’accent sur quatre domaines clés en vue de renforcer effectivement les capacités de l’UE et d’intensifier la coopération entre les États membres et l’Union.
Primo, il s’agit de mieux détecter. Pour ce faire, les task forces affectées à la communication stratégique et à la cellule de fusion de l’UE contre les menaces hybrides au sein du Service européen pour l’action extérieure (SEAE), ainsi que les délégations de l’Union dans les pays voisins, obtiendront le renfort de nombreux personnels spécialisés et d’outils d’analyse de données. Le budget de la communication stratégique du SEAE destiné à la lutte contre la désinformation et à la sensibilisation aux effets néfastes de celle-ci devrait plus que doubler et passer de 1,9 million € en 2018 à 5 millions € en 2019. Les États membres devraient compléter ces mesures en renforçant leurs propres moyens de lutte contre la désinformation.
Secundo, l’Union veut riposter de manière coordonnée. Un système spécifique d’alerte rapide sera créé entre les institutions de l’UE et les États membres afin de faciliter le partage des données et des analyses des campagnes de désinformation, et pour signaler les menaces de désinformation en temps réel. Les institutions de l’UE et les États membres s’emploieront également à communiquer de manière proactive et objective sur les valeurs et l’action de l’Union.
Tertio, agir au niveau des plateformes en ligne et secteur des services en ligne. Les signataires du code de bonnes pratiques devraient mettre en œuvre rapidement et effectivement les engagements pris, en donnant la priorité aux mesures urgentes en vue des élections européennes de 2019. Il s’agit notamment de garantir la transparence de la publicité à caractère politique, d’intensifier les efforts pour fermer les faux comptes toujours actifs, de signaler les interactions non humaines (messages diffusés automatiquement par des robots informatiques appelés « bots ») et de coopérer avec des vérificateurs de faits et des chercheurs universitaires pour détecter les campagnes de désinformation et améliorer la visibilité et la diffusion de contenus vérifiés. La Commission surveillera étroitement et en permanence, avec l’aide du groupe des régulateurs européens des services de médias audiovisuels, la mise en œuvre des engagements pris.
Quarto, l’UE veut sensibiliser les citoyens et leur donner les moyens d’agir. Parallèlement à l’organisation de campagnes de sensibilisation ciblées, les institutions de l’UE et les États membres promouvront l’éducation aux médias au moyen de programmes spécifiques. Un soutien sera accordé à des équipes multidisciplinaires nationales de vérificateurs de faits et de chercheurs indépendants en vue de détecter et de dénoncer les campagnes de désinformation sur les réseaux sociaux.
Ce plan d’action de l’UE colle assez bien à ce que les pays membres prévoient individuellement. A titre d’exemple, en France, la Loi de Programmation Militaire 2019-2025 comporte un volet cyberdéfense fort élaboré qui se trouve évidemment associé à la lutte contre la désinformation, vu les moyens utilisés par l’adversaire. Forces Operations l’a commenté lors de sa publication. Dans le cadre de la LPM, le ministère des Armées érige en axe d’effort prioritaire la réponse qui y sera apportée afin de garantir son propre fonctionnement et sa résilience, tout en contribuant à la continuité des grandes fonctions vitales de la Nation.
La LPM 2019-2025 renforce les capacités des armées en matière de prévention, de détection et d’attribution des attaques, ainsi que de réactions efficaces et rapides. Cette protection et cette défense de des systèmes et réseaux concernent tous les types d’action et tous les secteurs de l’espace numérique : cyberprotection, lutte informatique défensive, influence numérique, lutte informatique offensive, moyens de commandement et d’entraînement. Ce renforcement passe notamment par une augmentation d’effectifs à hauteur de 1.000 personnes sur la période de la LPM ; l’apport de ces spécialistes civils et militaires permettra de renforcer prioritairement la cyberprotection ; il passe également par la protection des systèmes d’armes et des systèmes d’information, dès leur phase de conception et pendant leur utilisation ; autre moyen de protection, la création d’une posture permanente « cyber » chargée de garantir la surveillance de nos réseaux et de mener la lutte informatique défensive ; la LPM prévoit aussi le renforcement des capacités du Centre d’analyse et de lutte informatique défensive (CALID), des centres opérationnels de sécurité des armées (SOC), de la 807e compagnie des transmissions et du centre interarmées des actions sur l’environnement ; last but not least, un budget pluriannuel de près de 1,6 Md€ hors masse salariale est prévu.
Il convient de relever que, dans un champ plus restreint, la lutte contre la désinformation politique est organisée par la loi, pas les forces armées. Ainsi donc, dans la nuit du 4 au 5 octobre 2018, l’assemblée nationale avait adopté, par 45 voix contre 20, la proposition de loi ordinaire contre « la manipulation de l’information » en période électorale. En fait, deux propositions de loi – ordinaire, et organique pour la présidentielle – visent à permettre à un candidat ou parti de saisir le juge des référés pour faire cesser la diffusion de « fausses informations » durant les trois mois précédant un scrutin national. L’intervention du juge sera encadrée. « Pour qu’elle soit justifiée, l’information devra être manifestement fausse et diffusée de manière délibérée, massive et artificielle », avait expliqué la ministre de la Culture (jusqu’au 16 octobre 2018), Françoise Nyssen, visant « les nouvelles viralités de l’information » sur Internet et les réseaux sociaux. Les propositions de loi prévoyaient également des dispositions relatives à l’éducation aux médias et à l’information. Enfin, le Conseil supérieur de l’audiovisuel (CSA) pourra, quant à lui, « ordonner la suspension de la diffusion » d’un service « contrôlé par un État étranger, ou sous l’influence » de cet Etat, s’il « diffuse de façon délibérée de fausses informations de nature à altérer la sincérité du scrutin ».
Second « round », le président Emmanuel Macron a finalement obtenu sa loi contre la « manipulation de l’information » en période électorale : le Parlement a adopté, mardi 20 novembre, les deux textes controversés sur les « fake news ». Les deux textes constituent la version définitive du cadre de la lutte contre les « fake news » en période électorale. Cette loi offre, pour la première fois, une définition des « fausses informations » qui sont « des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin ».
Les dispositions nouvelles doivent permettre à un candidat ou parti de saisir le juge des référés pour faire cesser la diffusion de « fausses informations » durant les trois mois précédant un scrutin national. Les principales plateformes numériques – Facebook, Twitter et Google – sont aussi appelées en renfort pour lutter contre les risques de manipulations de l’information : elles auront l’obligation de fournir les informations sur les publicités politiques qu’elles diffusent contre rémunération sur leur site. Elles doivent rendre public le montant payé pour des messages électoraux et mettre à disposition des électeurs un registre en ligne avec les informations sur l’identité des promoteurs de ces publicités électorales. Voilà pour la France.
Pour être objectif, il faut mentionner qu’en matière de désinformation, notre allié américain a également fait fort dans le passé : les « preuves » et les arguments utilisés pour entraîner une série de pays à ses côtés dans les guerres en Irak ne valaient guère mieux que les trouvailles de l’usine à trolls russe…
Bref, il était temps que l’Union européenne coordonne sa cyberdéfense, d’une part, mais également les moyens de lutte contre cette arme vicieuse qu’est la désinformation, un outil que l’usine à trolls de Vladimir Poutine maîtrise dangereusement bien et dont elle a déjà démontré son efficacité. Les élections européennes de 2019 fourniront l’occasion d’analyser l’efficacité de la lutte organisée par l’UE. Un bon sujet pour Forces Operations !