La nouvelle Loi de programmation militaire 2024-2030 engage résolument les armées françaises dans la voie de la haute intensité. Ce terme continue cependant d’être sujet à débat et source de confusion au sein de la communauté de défense.
Une définition stricte de la notion est donc nécessaire afin de mieux en comprendre la portée et les implications pour la France. Sur le plan militaire, la haute intensité renvoie d’abord à un type d’engagement déployant un haut niveau d’énergie cinétique dans un espace et une durée limités. À ce facteur énergétique, s’ajoutent le niveau de sophistication technologique des équipements (intensité en capital) et la létalité qui résulte de ces deux éléments. Émerge ainsi une notion de haute intensité capacitaire qui s’articule autour du triptyque énergie-technologielétalité.
Cette intensité capacitaire doit être distinguée de l’intensité politique, ou virulence d’un conflit armé, laquelle dépend avant tout des intérêts en jeu. Lorsque ceux-ci sont très élevés pour un belligérant, le conflit prend pour ce de rnier les aspects d’une guerre majeure, mettant en jeu sa survie. À l’inverse, la mise en jeu d’intérêts réels mais non existentiels se traduit par des formes de guerre limitée. Si l’histoire militaire offre des exemples de conflits où haute intensité politique et militaire se combinent, elle montre aussi des cas de guerres limitées à haute intensité capacitaire. C’est cette configuration qui paraît la plus pertinente pour la France où la dissuasion nucléaire prémunit en principe de toute menace contre les intérêts vitaux de la nation.
Il existe donc une large gamme de scénarios situés en deçà des intérêts vitaux mais au-delà de l’horizon capacitaire et opérationnel des trois dernières décennies, marquées avant tout par la gestion de crise et dans la perspective desquelles s’est construit le format des armées françaises. Solidarité stratégique dans le cadre de l’alliance atlantique ou d’accords de défense, confrontation avec une puissance grande ou moyenne sur des espaces périphériques, affrontement avec un « proxy », acteur tiers soutenu par un État-puissance ou encore confrontation dans des espaces communs isolés (haute mer, espace exo atmosphérique, cyber, fonds marins, etc.) sont autant d’hypothèses à prendre en compte qui relèveraient de la haute intensité capacitaire.
Haute intensité : quels défis pour les armées françaises ?
L’aventure d’Ariane 5 avait très mal commencé : lors de son vol inaugural, le 4 juin 1996, le lanceur s’était désintégré à 4000 mètres d’altitude, 39 secondes après son décollage depuis le Centre spatial guyanais [CSG] de Kourou.
« C’est la perte totale des informations de guidage et d’attitude 37 secondes après le démarrage de la séquence d’allumage du moteur principal [30 secondes après le décollage] qui est à l’origine de l’échec d’Ariane 501. Cette perte d’informations est due à des erreurs de spécification et de conception du logiciel du système de référence inertielle », avait conclu la commission d’enquête mise en place après cet incident. Et celle-ci d’ajouter : « Les revues et essais approfondis effectués dans le cadre du programme de développement d’Ariane 5 ne comportaient pas les analyses ou essais adéquats du système de référence inertielle ou du système complet de contrôle de vol qui auraient pu mettre en évidence la défaillance potentielle ».
Par la suite, hormis un échec lors de sa 14e mission en décembre 2002, dû à une défaillance du moteur Vulcain 2, Ariane 5 a enchaîné les succès. Et si elle avait mal débuté, son histoire s’est terminée sur une bonne note.
En effet, pour son 117e et dernier vol, initialement prévu le 16 juin avant d’être reporté de quelques semaines après la découverte d’un défaut sur le système de séparation des propulseurs d’appoint, le lanceur a décollé avec succès du CSG de Kourou, aux environs de minuit [heure de Paris], ce 6 juillet.
Cet ultime vol était crucial pour le programme Syracuse 4, lequel doit donner aux forces françaises des capacités accrues en matière de télécommunications. Un premier satellite – Syracuse 4A – avait été lancé avec succès en octobre 2021. Ne restait donc plus qu’à placer le second – Syracuse 4B – sur une orbite géostationnaire, à 36’000 km d’altitude.
« J’adresse mes vives félicitations aux équipes étatiques et industrielles qui ont œuvré à la réussite de ce lancement. Syracuse 4 est un programme majeur qui contribue à la modernisation de nos capacités spatiales de défense, déterminante pour notre souveraineté et notre indépendance stratégique », a commenté Sébastien Lecornu, le ministre des Armées, après le vol réussi d’Ariane 5.
Cependant, Syracuse 4B a encore du chemin à faire avant d’être déclaré opérationnel. Il sera « qualifié dans neuf mois une fois qu’il aura atteint son orbite géostationnaire et subi une série complète de tests », a en effet rappelé la Direction générale de l’armement [DGA].
Conçus par Thales Alenia Space et à Airbus Defence & Space, les satellites Syracuse 4A et 4B sont dotés de moteurs électriques à plasma, ce qui a permis d’augmenter significativement leur capacité d’emport… et donc leurs performances. En effet, ils offrent un débit en bande X et bande ka militaire de l’ordre de 3 à 4 Gb/s [soit trois fois plus par rapport aux satellites Syracuse 3, ndlr] ainsi qu’une meilleure résistance aux menaces cybernétiques, aux impulsions électromagnétiques et au brouillage. Enfin, ils sont également équipés de moyens de surveillance et ont la capacité de se déplacer pour contrarier une possible agression.
Initialement, le programme Syracuse 4 devait compter trois satellite… Mais Syracuse 4C ne sera jamais lancé, le projet de Loi de programmation militaire [LPM] 2024-30 ayant prévu d’annuler sa réalisation.
« S’agissant des satellites Syracuse 4, les évolutions dans le domaine de l’espace sont très rapides : les grands programmes, c’est très bien. L’agilité du new space, c’est très bien aussi. Nous avons, à une époque, imaginé d’énormes satellites en orbite géostationnaire. Mais les constellations qui évoluent en orbite basse ont aussi des avantages. Les deux sont complémentaires pour assurer l’efficacité et la redondance dont les armées ont besoin », a ainsi récemment fait valoir le général Stéphane Mille, le chef d’état-major de l’armée de l’Air & de l’Espace [CEMAAE], aux députés.
« Mettre tous nos objets sur l’orbite géostationnaire serait à mon sens dangereux. Le temps de latence, c’est-à-dire le temps nécessaire pour transmettre une information à un autre vecteur de la patrouille, est plus important s’il faut monter en orbite géostationnaire puis redescendre. Ce delta […] colossal pour des systèmes comme le SCAF [Système de combat aérien du futur] », a ensuite expliqué le CEMAAE.
Quoi qu’il en soit, le projet de LPM 2024-30 prévoit d’engager le remplacement de Syracuse 4.
« Les moyens de communication seront appuyés par une constellation de connectivité sécurisée et multi-orbites européenne. Le programme Syracuse 5, successeur de Syracuse 4 et constitué d’une nouvelle génération de satellites souverains, sera lancé pendant la présente loi de programmation militaire. Il s’agira d’un modèle de satellite patrimonial, géostationnaire en orbite haute », est-il précisé dans le texte.
Une guerre dans l’Espace pour s’approprier des ressources. Des implants qui permettent de lever des armées performantes rapidement. Voici deux scénarios de fiction mis au point par la Red Team Défense, une cellule de prospective à l’initiative de l’Armée française. Une façon d’anticiper dès aujourd’hui des conflits futurs pouvant provenir des risques technologiques, économiques, environnementaux, ou sociétaux
Nous sommes en 2040, l’espace est devenu en quelques années un nouvel eldorado grâce à un carburant de fusée qui a démocratisé son accès. On vient de collecter des minerais précieux dans les astéroïdes et sur la Lune. Quelques décennies plus tard, cette ruée vers l’espace a engendré des tensions, avec des sabotages, des dénis d’accès entre des consortiums et d’autres puissances mondiales parfois privées. Puis vient l’escalade, la guerre spatiale. Des vaisseaux de combat lourdement armés et propulsés par des réacteurs à fusion nucléaire, des véhicules autonomes, des robots et des drones animés par des IA s’affrontent dans l’espace. Peu d’humains sont impliqués dans cette guerre pour le contrôle des métaux et terres rares, mais le conflit commence à s’approcher de la Terre.
Ce scénario de fiction est l’un des deux imaginés par la Red Team Défense, une équipe constituée de chercheurs en sciences sociales et comportementales, en physique-chimie, en biologie, mais aussi des dessinateurs, des auteurs de science-fiction et des militaires. Elle est pilotée par l’Agence de l’innovation de la défense (AID) avec l’État-major des armées, la Direction générale de l’armement (DGA) et la Direction générale des relations internationales et de la stratégie (DGRIS).
Jeudi dernier, cette Red Team Défense a présenté pour la troisième année consécutive ses scénarios prospectifs. En plus de cette histoire intitulée « La ruée vers l’espace », l’équipe a aussi présenté un autre scénario appelé « Face à l’hydre», dans lequel un implant permet d’assimiler de nouvelles connaissances à toute personne qui en est équipée. C’est justement en distribuant ces implants aux civils que des armées sont générées de façon rapide en leur injectant des savoirs militaires.
Dans les deux cas, ces histoires permettent aux militaires d’aujourd’hui d’aller plus loin dans leurs réflexions face aux futures menaces. Alors évidemment, ces scénarios peuvent sembler farfelus au premier abord, mais ils permettent de faire sortir les militaires de leur zone de confort et les pousser à la créativité pour trouver des possibilités de réponse face à des menaces considérées comme improbables. Il faut savoir que ces deux histoires ne sont en réalité que la partie diffusée au public du programme. Il existe des parties de ces scénarios qui restent classées pour des besoins militaires. Ces deux dernières productions de la Red Team Défense viennent s’ajouter à six autres, imaginées lors des sessions des trois dernières années. Il ne faut pas croire que ces fictions sont prises de façon légère par les militaires. Ils ont déjà constaté que certains éléments des différents travaux ont désormais rejoint la réalité. Alors qu’elles faisaient auparavant sourire, ces productions de la Red Team Défense sont désormais observées avec intérêt par d’autres pays européens.
Le numérique est aujourd’hui une guerre technologique et économique entre les deux puissances mondiales qui s’affrontent sur le terrain de la 5G : les Etats-Unis et la Chine. (1)La Commission européenne affiche son ambition numérique (2). L’Europe cherche à renforcer sa souveraineté numérique à travers l’autodétermination des normes. NextGeneration EU alloue un investissement de 250 milliards d’Euros avec pour stimuler la numérisation(3). En 2022, le gouvernement Macron supprime la taxe imposée aux opérateurs de téléphonie mobile sur chaque nouvelle antenne relais. C’était la seule source de financement destinée à la recherche scientifique publique sur les ondes. Cette taxe de 1 674 euros faisait l’objet d’un fort lobbying de la part des opérateurs depuis de nombreuses années. Le gouvernement lui reprochait de freiner l’implantation de la 5G en France (4). Sans recherche publique indépendante sur les effets des ondes sur notre santé, peut-on vraiment faire confiance aux résultats des études effectués par et pour des opérateurs téléphoniques privés ?
Nos contradictions par rapport au numérique
D’une part, les citoyens souhaitent voir s’étendre la couverture de la téléphonie mobile, jusque dans nos campagnes, à tel point qu’une proposition de loi a été déposée en avril 2022 pour instituer un droit à la connexion opposable et garantissant l’égalité d’accès au numérique dans les territoires (5) …
Les citoyens, et c’est tout aussi légitime, expriment des inquiétudes quant aux effets des champs électromagnétiques, et défendent le droit fondamental à la santé. Le principe de prudence et les doutes quant à la nocivité de la quantité croissance de notre exposition aux ondes étaient déjà à l’ordre du jour il y a une douzaine d’années, comme le relate le compte-rendu de l’audition publique organisée par le député Alain Gest le 6 avril 2009 au sujet des « antennes relais à l’épreuve des inquiétudes du public et des données scientifiques » (6). Connaissons-nous l’impact sur notre santé et sur celui de la biodiversité de l’augmentation exponentielle du numérique ?
Tiraillement également entre le « droit vital » d’être connecté, et celui tout aussi « vital » de pouvoir choisir d’être déconnecté pour se reposer ou s’occuper autrement. La société actuelle donne-t-elle ce droit de déconnexion à nos enfants parfois biberonnés au numérique (même passif) ? Combien de temps les gouvernements, les politiques ont-ils prétendu que la fumée du voisin n’était pas toxique, avant de reconnaître la nocivité du tabagisme passif ?
Nos adolescents peuvent-ils suivre une scolarité sans téléphone si l’ensemble de la communauté de leur classe d’âge échange plus en ligne que dans la cour du collège et si les professeurs ne communiquent plus oralement les devoirs mais uniquement sur le site « école directe » ?
Le numérique est devenu l’outil indispensable à notre transition énergétique. Il peut servir très efficacement à améliorer le rendement de nos usines, et à réduire notre consommation notamment par l’effacement des pics énergétiques. Dans le secteur industriel, très gros consommateur d’électricité, la suspension de l’alimentation auprès des entreprises volontaires et bénéficiant d’un meilleur tarif, permet d’éviter le recours aux centrales électriques les plus polluantes (gaz et charbon), tout en optimisant les énergies renouvelables. De fait, cette application du numérique permet de réduire notre empreinte carbone.
Malheureusement, le numérique contribue toujours plus aux émissions de gaz à effet de serre, avec une croissance plus rapide que les gains générés par cette même technologie. Les émissions de CO2 du numérique ont augmenté depuis 2013 d’environ 450 millions de tonnes dans l’OCDE, dont les émissions globales ont diminué de 250MtCO2eq, comme indiqué dans le rapport du Shift project. (7) Le Shift project souligne la nécessité de débattre des usages à privilégier pour éviter l’effet rebond de surconsommation permise par la 5G. La technologie en soit n’est pas perverse, mais certains de ses usages peuvent le devenir. Nous devons donc filtrer les applications nécessaires, tout en visant une sobriété numérique indispensable à nos défis environnements…
Entre aspiration à la « high technologie » pour une industrie plus compétitive, et besoin de revenir sur des « low-tech » pour un société plus résiliente, et plus respectueuse de l’environnement.
Conflit d’usage pour les métaux critiques dont l’Europe est dépendante à près de 50 % de la Chine et de la Russie. Les terres rares et métaux, limités par des facteurs physiques, géopolitiques, économiques, écologiques, sont tout aussi indispensables à la réindustrialisation et numérisation de notre économie, qu’à la décarbonation nécessaire. Quelles sont nos priorités ? Choisir, c’est renoncer à certains usages, voire imposer des quotas sur certains, pour privilégier ceux que nous considérons comme essentiels et vertueux. Dans tous les scénarios imaginables, la sobriété sera notre choix, ou nous sera très vite imposée.
Le danger serait de se laisser imposer des choix par passivité et manque d’esprit critique par rapport aux politiques qui nous gouvernent…
Guerre informationnelle et manipulation politique
Certaines ordonnances adoptées en toute hâte et sans soumission au préalable au débat public éveillent le soupçon, à tort ou à raison…
En juin 2018, l’article 62 de la loi Élan met fin à des dispositifs de la loi Abeille qui tire son nom de Laurence Abeille, députée écologiste à l’origine de la proposition de loi « relative à la sobriété, à la transparence, à l’information et à la concertation en matière d’exposition aux ondes électromagnétiques » adoptée en janvier 2015. La loi abeille permettait un contrôle de l’implantation des antennes-relais, et prévoyait des dispositifs d’information et de concertation en lien avec les élus locaux pour l’implantation ou la modification des antennes relais. Cet article 62 de juin 2018 soit trois ans et demi seulement après la loi abeille est un « cavalier législatif », c’est-à-dire qu’il n’a rien à voir avec le reste de la loi, consacrée aux questions de logement. Nous pouvons légitimement émettre des doutes sur la victoire du lobby des opérateurs de téléphonie mobile qui a maintenu la pression jusqu’à obtenir l’ajout « discret » de cet article.
En pleine pandémie covid et pendant la durée de l’état d’urgence sanitaire, l’ordonnance n° 2020-320 du 25 mars 2020 relative à l’adaptation des délais et des procédures applicables à l’implantation ou la modification d’une installation de communications électroniques fût adoptée. « Par dérogation … la décision d’implantation sur le territoire national des stations radioélectriques peut être prise sans accord de l’Agence nationale des fréquences pendant la durée de l’état d’urgence sanitaire » … (3) De quelle urgence sanitaire parle-t-on ?
En 2022, le gouvernement Macron supprime la taxe imposée aux opérateurs de téléphonie mobile sur chaque nouvelle antenne relais. C’était la seule source de financement destinée à la recherche scientifique publique sur les ondes. Cette taxe de 1 674 euros faisait l’objet d’un fort lobbying de la part des opérateurs depuis de nombreuses années. Le gouvernement lui reprochait de freiner l’implantation de la 5G en France. (4) Sans recherche publique indépendante sur les effets des ondes sur notre santé, peut-on vraiment faire confiance aux résultats des études effectués par et pour des opérateurs téléphoniques privés ?
Quand l’outil numérique nourrit nos addictions et dirige notre projet de société
Les usages numériques les plus fréquents des particuliers sont Youtube, les réseaux sociaux, la pornographie et Netflix. Or, selon le baromètre numérique 2022, 58% des personnes interrogées ne pourraient pas se passer d’internet plus d’une journée sans ressentir un manque, contre 18% en 2011 (8). Cela ressemble à une addiction perverse, plus qu’à un besoin vital… Les usages cités plus haut ne sont pas liés à la survie d’un être humain, alors même que le besoin vital de contact est hypothéqué à cause du numérique ! Un bébé humain se laisse mourir si aucun autre être humain ne le touche, ne le regarde dans les yeux, ou ne lui adresse la parole. Les périodes de confinement pendant la pandémie de covid ont montré in vivo les impacts psychologiques sur les êtres humains d’un manque de contact physique, que le contact numérique n’a pas su combler.
Et pourtant, nous assistons peut-être à la mutation de l’être humain puisque plusieurs études constatent une réduction des rapports physiques, de manière souhaitée et non subie. 44 % des jeunes français âgés de 18 à 25 ans n’ont eu aucun rapport sexuel durant l’année écoulée. C’est un peu moins que pendant le confinement (57 %), mais nettement plus qu’il y a 8 ans (25 %). La tendance en France est alignée avec ce que l’on constate aux États-Unis. (9) . Les générations nées au XXème siècle peinent à comprendre le fait que les plus jeunes jugent ce manque lié à une potentielle déconnexion plus effrayant que l’absence de contact physique.
Les GAFAM avec leurs algorithmes ultra efficaces de suggestion de contenus, imposent et influencent notre rythme de marche,pulsions d’achat, convictions politiques, et rencontres amoureuses. (10). L’encerclement cognitif fonctionne parfaitement puisqu’une majorité d’humains publie volontiers et sans contrainte des données personnelles d’une part, et accepte au nom de la sécurité les caméras de surveillance de plus en plus nombreuses d’autre part.
Aucune excentricité ou comportement hors norme ne sort des radars. Nous vivons déjà dans une société où l’intime est réduit, et notre vulnérabilité mise à nue… Le PDG a intérêt à être lisse et dans le moule pour ne pas accroitre la vulnérabilité de son entreprise, faire chuter son cours de bourse ou la précipiter dans les bras d’un potentiel acheteur…
« Il avait remporté la victoire sur lui-même. Il aimait Big Brother ». Ultime phrase de 1984 de George Orwell. La guerre cognitive des GAFAM, et de ses alliés ultra-libéraux (publicitaires, multinationales avides de profit, capitalistes désintéressés des conséquences sociales, écologiques et sanitaires de leurs stratégies, sociétés de surveillance…) est sur le point d’être gagnée. Or, une société surveillée est une société sclérosée, en manque de liberté et de créativité.
Dans cette guerre cognitive de grande intensité, la riposte tente de se préparer. La commission européenne interdit Tik Tok aux fonctionnaires de l’institution au nom de la protection des données et face aux risques de cyberattaques. (11) Plus largement, l’union européenne appliquera le digital service act (DSA) dès septembre 2023. Cette nouvelle législation exige la modération des contenus illicites ou délétères et la transparence du service à toutes les applications, sous peine d’interdiction et de sanction.
Les forces en présence dans cette guerre cognitive ont beaucoup d’intérêts en jeu : financiers et idéologiques, enjeux démocratiques et climatiques entre autres…
. Législation sur les services numériques : garantir un environnement en ligne sûr et responsable ;
. Renforcer la compétitivité et la résilience de l’Europe dans le domaine des technologies des semi-conducteurs.
. Identité numérique européenne : contrôle des informations partagées avec des tiers
. Intelligence artificielle : parvenir à de meilleurs soins de santé, à des transports plus sûrs et plus propres, à des procédés de fabrication plus efficaces et à une énergie moins chère et plus durable grâce à l’IA ;
. Gouvernance européenne des données pour faciliter le partage des données entre les secteurs d’activité et entre les États membres (données sur la santé, la mobilité, les données environnementales, agricoles, données de l’administration publique) ;
. Stratégie industrielle européenne pour une souveraineté numérique et la neutralité carbone 2050 ;
. Renforcement de la coopération européenne en matière de défense.
Rapport Verizon : l’humain reste le maillon faible de la cyberperformance
OPINION. La publication du Data Breach Investigation Report est un évènement fort attendu : il a pour lui l’ancienneté (20 ans) et donne ainsi, à ceux qui le suivent chaque année, un panorama de l’évolution de la menace cyber. Le facteur humain reste la cause première des fuites de données. Le prétexte, une nouvelle forme d’attaque s’y développe et, évidemment, le coût des ransomwares a doublé par rapport à l’an passé. Par Charles Cuvelliez, Université de Bruxelles (Ecole Polytechnique de Bruxelles), directeur de la sécurité des systèmes d’information, Belfius Banque, et Jean-Jacques Quisquater, Université de Louvain (Ecole Polytechnique de Louvain) et MIT.
Jean-Jacques Quisquater et Charles Cuvelliez. (Crédits : DR)
Le rapport annuel de Verizon se base sur un réseau de partenaires qui lui font remonter tous les incidents cyber et, le cas échéant, quand il y a eu une fuite de données. Pour ce rapport, 16.312 incidents de sécurité à travers le monde ont été examinés : 5.199 ont impliqué une fuite de données.
Répartition des incidents par catégorie
En 2022, les dénis de services (inonder une entreprise de requêtes par Internet pour la bloquer numériquement) représentent le plus important type d’incidents de sécurité en volume (à peu près 40 % venant d’un pic en 2021 à 50 %) suivi des incidents d’intrusion dans les systèmes. Ce ne sont pas les dénis de services qui sont à l’origine des brèches de données mais bien les intrusions, de loin (40 % des brèches). Ce sont pourtant les attaques les plus complexes. Viennent ensuite les brèches de données rendues possibles via les applications web (35%) : on y utilise les informations d’identification volées (login et mot de passe) ailleurs et on accède ainsi aux données auxquelles la victime avait légitimement accès. Car les accès sont rarement protégés par plus ! Vient ensuite l’ingénierie sociale pour 20 % des incidents qui aboutissent à une brèche de données.
Pour cette dernière catégorie, ce sont surtout les emails professionnels compromis (business email compromises) qui représentent plus de 50 % des incidents. Dans ces attaques, un hacker prend possession d’un email professionnel d’une personne et puis s’adresse à ses correspondants en se faisant parfaitement passer pour lui.
Les vecteurs d’attaque
Dans 24 % des cas de brèches de données, les ransomwares en sont la cause. Ils comptent pour à peu près 15 % de tous les incidents de sécurité. Ceci dit, les ransomwares ne sont pas le premier vecteur d’attaque qui mènent à des brèches de données. Il y a tellement plus simple : l’utilisation des informations d’identification volées, de nouveau. L’hameçonnage arrive en quatrième cause de brèche de données et le pretexting en cinquième place. Le pretexting est un contact de quelqu’un que vous pensez connaître, qui se fait passer pour un de vos proches ou, plus subtilement, une connaissance professionnelle pas si proche mais qui est subitement dans le pétrin et a besoin d’aide. Si cette personne n’est pas trop proche, vous détecterez moins vite que cela ne pourrait pas être elle mais vous voudrez l’aider. L’exploitation des vulnérabilités, finalement, n’est à quelques pourcent seulement dans ce classement des vecteurs d’attaque avec fuite de données. Ceci dit, les conséquences d’un ransomware sont telles que cette troisième place sur le podium ne doit pas nous rassurer ! D’ailleurs les ransomwares sont le vecteur d’attaque préféré du crime organisé. En d’autres mots, si vous êtes ciblés par ce dernier, vous savez déjà comment vous le serez. Il y a eu moins de supply chain attacks (attaques par l’intermédiaire de vos fournisseurs) avec une diminution de 7 % à 5 % comme s’il y avait eu une prise de conscience de mieux faire attention aux fournisseurs mais Verizon en doute un peu. C’est simplement dû à l’augmentation de l’utilisation des données d’identification volées qui passe de 41,6 % à 44,7 %. Les autres vecteurs d’attaque diminuent mécaniquement.
Malheureusement, l’élément humain reste de loin la cause principale des brèches de données : 74 % de toutes les brèches incluent ce facteur humain, avec des gens qui ont fait une erreur, ou bien ont utilisé leurs droits informatiques pour avoir accès à de l’information ou il s’agit de l’utilisation d’informations d’identification volées ou, bien sûr, de l’ingénierie sociale. Comme on peut s’en douter, 83 % des brèches impliquent des acteurs externes et la motivation n’est que financière (95 %). Ces acteurs externes sont surtout issus du crime organisé à 75 %. Il y a eu très peu d’attaques menées par des Etats alors qu’avec la guerre en Ukraine, on aurait pu s’attendre à une augmentation.
Comment forcer la porte d’entrée
Les trois moyens avec lesquels les attaquants arrivent à pénétrer dans une organisation sont les informations d’identification volées (50 %), le phishing (17 %) et l’exploitation de vulnérabilités (quelques pour cents). Verizon revient sur la fameuse vulnérabilité log4j qui fut exploitée fin 2021, début 2022 : 32 % des tentatives pour voir si les entreprises avaient la vulnérabilité chez elles ont été réalisées dans les 30 jours de la révélation de son existence avec un pic d’activité après 17 jours. Ceci donne un bon ordre de grandeur du délai pour réparer les vulnérabilités, une fois annoncées comme exploitables.
Dans les attaques de 2022, les actifs/entités visés ont été pour plus de 80 % les serveurs des organisations. Les machines individuelles n’arrivent qu’en 3e position derrière les individus à 20 %. Quand un actif est visé avec des données : à plus de 50 % des cas, ce sont des données personnelles suivies des informations d’identification, ensuite des données internes à l’organisation. Les données médicales, bancaires ou de paiement arrivent en 5, 6 et 8e position.
Par types d’attaques
Quand il s’agit de pénétrer dans un système, cette attaque est perpétrée par des hackers qui ne peuvent qu’être expérimentés avec comme but final d’y installer un ransomware. En utilisant les données du FBI, Verizon a pu mettre à jour l’impact des ransomwares sur les organisations : le coût médian des ransomwares a doublé à 26.000 dollars. 95 % des ransomwares ont un coût inférieur à 2,25 millions de dollars (ce qui veut dire que 5 % sont au-dessus et cela peut crever certains plafonds). Le coût pour se remettre d’un ransomware augmente donc même si les montants des rançons sont plus bas. C’est que la taille moyenne des entreprises victimes de ransomwares diminue, comme le montant des ransomwares exigés pour espérer être payés. Verizon précise par quel moyen un ransomware pénètre les organisations : les emails et les applications pour accéder à distance aux ordinateurs sont à égalité pour le premier à 30 %, le second à 20 %. Les applications web arrivent ensuite.
Dans le cas de l’ingénierie sociale, ce sont le phishing et pretexting qui continuent de dominer. Le pretexting, ce sont des prises de contact avec un sentiment d’urgence ou émotionnel pour répondre ou entreprendre une action dont on ne mesure pas à l’instant les conséquences possibles, comme divulguer une information : cela va très vite. Ce sont les business email compromises qui restent le plus dangereux dans cette famille.
Les erreurs humaines sont celles qui, quasi à 100 %, finissent en brèches de données. Ce sont les erreurs de distribution de l’information à la mauvaise personne qui arrivent en tête avec 43 % des brèches suivi par des erreurs de publication (trop tôt, trop de détails, pas la bonne audience) à 23 %. La majorité des erreurs humaines proviennent des développeurs et des administrateurs systèmes, dans les deux cas autour de 40 %. Les utilisateurs finaux n’interviennent finalement que dans 20 % des brèches.
Les dénis de service continuent de dominer les incidents. Les capacités d’attaque augmentent : 2,5 % d’entre elles arrivent à mobiliser 99 GBits/s à 124 GBits/s de bande passante. Même la médiane a cru de 1.4 GBits/S à 2.2 GBits/s. Il est devenu tellement facile de louer de la bande passante et des CPU que ces chiffres ne vont faire qu’augmenter. Fini le temps des botnets avec des millions de caméras connectés à Internet à mobiliser (pirater) avant toute attaque. Quelques serveurs dans le cloud suffisent. Même si les protections anti-déni de service fonctionnent bien, il faut qu’elles suivent en capacité.
La perte d’appareils est à plus de 90% la cause première des brèches de données via les appareils portables. Le vol ne vient que pour quelques pour cents. Le problème, c’est qu’en cas de vol ou de perte, on ne saura jamais si les données ont été consultées ou pas. On perd plus son téléphone mobile (70 % des cas) que son ordinateur (portable, 25 % des cas).
Conclusions
L’élément humain, c’est désespérant, est toujours la cause principale des brèches et la plupart des attaques ont trait à de l’ ingénierie sociale. Même les sociétés les mieux protégées techniquement se retrouvent tout à coup vulnérables car on ne peut pas « patcher » le comportement humain ! Il est temps de sophistiquer les entrainements du personnel. De simples tests de reconnaissance de phishing ou des formations en ligne ne suffisent pas. Organiser des tests de pretexting n’est pas simple non plus. Mais au fond, il y a plus simple : on aime tous les histoires… Publier et raconter ce qui est arrivé aux autres captera l’attention.
Ce qui pose aussi problème, ce sont les comportements dans la sphère privée : soit on croit que les bonnes pratiques chez soi, transposées au bureau suffisent (quelles bonnes pratiques ?) ou bien, une fois chez soi, on oublie ce qu’on a appris au bureau. Rien de nouveau sous le soleil.
[TRIBUNE] Le pays dispose d’un écosystème favorable au développement du renseignement d’origine sources ouvertes. Il serait temps de créer une agence qui lui soit dédiée.
La capacité de fondre les informations d’origine sources ouvertes avec les autres sources plus «classiques» est devenu un enjeu essentiel dans la concurrence que se livrent les services spéciaux des grandes puissances. | Teona Swift via Pexels
Les principes et la pratique de l’OSINT (l’Open source intelligence, ou ROSO en français, pour «renseignement d’origine sources ouvertes») ne sont pas nouveaux. Mais avec la démocratisation d’internet à partir de 1995, tout change. En 2010, Eric Schmidt, alors PDG de Google, déclarait que la somme totale des données créées entre le «commencement des temps» et 2003, estimée à 5 exabytes, était produite tous les deux jours. Aujourd’hui, on parle de 120 zettabytes pour l’année 2023.
Face à ce tsunami de données, les performances des semi-conducteurs (qui donnent aux supercalculateurs leur puissance) et des outils d’intelligence artificielle ont fait des progrès stupéfiants. L’envol de l’OSINT s’explique donc par la croissance exponentielle du volume des données créées sur internet et les réseaux numériques, la puissance de calcul des superordinateurs et, enfin, le développement des outils de traitement et d’analyse censés exploiter cette masse ahurissante d’informations.
D’abord axé autour des compétences en renseignement humain (réseaux, identification des sources, collecte, vérification, analyse, etc.), puis de la surveillance électronique et satellitaire, le renseignement est à un nouveau point d’inflexion. Les techniques, la technologie, les méthodes, le recrutement et la formation des agents et, surtout, la capacité de fondre les informations d’origine sources ouvertes avec les autres sources plus «classiques» est devenu un enjeu essentiel dans la concurrence que se livrent les services spéciaux des grandes puissances. Afin de ne pas décrocher, le renseignement français doit investir davantage dans l’OSINT, et pour cela, il doit se doter d’une agence dédiée.
L’OSINT n’est pas un «INT» comme un autre
L’OSINT désigne la collecte de données publiques ou semi-publiques, surtout tirées du monde numérique, internet, données GPS, satellitaires etc., puis de leur vérification, traitement, analyse, dissémination, évaluation. En Ukraine, l’OSINT a permis de prévoir la guerre, de déjouer les opérations sous fausse bannière, d’identifier des cibles ennemies, etc.; avant ça, l’analyse de vidéos de l’autoproclamé État islamique grâce à des données satellitaires comme Google Earth avait facilité la localisation des terroristes, même chose pour les coordonnées GPS des téléphones satellites d’al-Qaïda en Afghanistan.
Mais l’OSINT se distingue des autres disciplines (SIGINT, pour Signals intelligence, HUMINT, pour Human intelligence) par de nombreux aspects. D’abord, le renseignement d’origine sources ouvertes est très hétéroclite: les sources peuvent provenir de la littérature grise, du dark web, de millions de sites, des réseaux sociaux, de données de géolocalisation, et cela sous des formes différentes (texte, images, vidéos, audio), posant évidemment des problèmes de standardisation des données non structurées.
Dans un milieu technophobe comme celui du renseignement, l’idée d’investir des sommes faramineuses dans des supercalculateurs fera certainement grincer des dents.
Ensuite, les métiers propres à l’OSINT sont très fragmentés: analystes, développeurs, scientifiques de données, ingénieurs de données, programmeurs, linguistes, professionnels multidisciplinaires chargés de coordonner des métiers et des processus complexes. Du fait de sa nature hybride, l’OSINT doit à la fois entretenir une culture du secret et s’ouvrir suffisamment pour fonder des partenariats originaux avec des start-up et des entreprises de défense, des universités, et convaincre des talents attirés vers le privé.
Il y a aussi les défis liés à la technologie. Dans un milieu historiquement technophobe comme celui du renseignement –où la guerre entre partisans du renseignement d’origine humaine et ceux du renseignement d’origine électromagnétique évoque parfois celle entre les Anciens et les Modernes–, l’idée d’investir des sommes faramineuses dans des supercalculateurs et autres, rien que pour rester dans la course, fera certainement grincer des dents.
Enfin, avec une technologie souvent américaine, trouver le bon compromis entre souci d’indépendance nationale et maîtrise des coûts sera un vrai défi, surtout si les décisionnaires n’ont pas les compétences requises pour faire les choix opportuns.
Tout ceci devrait pousser vers une logique de centralisation des ressources afin d’optimiser les budgets, les matériels et les talents disponibles, ce qui va à l’encontre de la tradition de concurrence entre services secrets français, comme l’a encore démontré en 2022 l’échec du projet de création d’une agence indépendante de surveillance électronique, probablement en raison de l’opposition de la direction générale de la sécurité extérieure (DGSE), soucieuse de garder la main à travers sa direction technique. Mais c’était en 2022. Depuis, les choses ont encore changé…
Le décollage de l’IA générative bouleverse la donne
Depuis quelques mois, on ne parle plus que de ChatGPT, le produit d’OpenAI, une start-up lancée par Elon Musk et Peter Thiel, comptant Microsoft parmi ses actionnaires principaux. En deux mois, ChatGPT avait déjà 100 millions d’abonnés, pulvérisant le record de vitesse d’acquisition précédemment détenu par Instagram. Les médias spécialisés parlent déjà de nouvel âge industriel. Mais pour les services de renseignement, c’est une nouvelle révolution.
D’abord, qu’est-ce que l’intelligence artificielle (IA) générative et pourquoi en parle-t-on autant? Depuis 2019, l’IA a été transformée grâce à la révolution des modèles de fondation. Basés sur des réseaux neuronaux (systèmes complexes d’algorithmes statistiques s’inspirant du fonctionnement du cerveau humain), les modèles de fondation sont des modèles de très grande taille qui sont entraînés sur de très gros volumes de données non étiquetées, au début par apprentissage pré-entraîné. Avec l’explosion du nombre de paramètres (de 100 millions à des milliers de milliards), les modèles tournent maintenant par apprentissage autosupervisé.
Pour simplifier, les modèles apprennent en ingurgitant des quantités faramineuses de données, langages, images, code etc., «s’améliorent» sans intervention humaine et savent répondre à des questions complexes, synthétiser des bibliothèques entières de textes ou d’images à toute allure, développer du code, imiter un style et même créer.
Quand on voit ce que l’Internet Research Agency d’Evgueni Prigojine a fait avec une technologie somme toute limitée, on est en droit d’avoir froid dans le dos.
Les applications spécifiques au renseignement donnent le tournis: analyse, synthèse, structuration, simulation de scénarios, validation de très larges quantités de données… En automatisant toutes ces tâches grâce à l’IA générative, les agents peuvent se consacrer à des activités essentielles et prendre de meilleures décisions.
Mais l’IA, entre les mauvaises mains, présente aussi des dangers sans précédent: virus informatiques beaucoup plus performants, «empoisonnement» des données OSINT collectées pour fausser l’analyse, ou encore contamination des pays ciblés avec des fausses rumeurs, fausses affaires, faux complots –quand on voit ce que l’Internet Research Agency d’Evgueni Prigojine a fait avec une technologie somme toute limitée, on est en droit d’avoir froid dans le dos.
Troisième axe: les nouveaux produits. On parle beaucoup de speech-to-face (Nvidia…), un type d’outil qui permet de déterminer un visage à partir de l’enregistrement d’une voix et ensuite retrouver l’individu sur les réseaux sociaux grâce à la reconnaissance faciale. Ou alors des outils programmés pour identifier les deepfakes textuels (Writer, Sensity…). Comme le dit Lakshmi Raman, directrice IA de la CIA: «Il ne fait pas de doute qu’évaluer les outils [d’IA] les mieux adaptés aux objectifs du gouvernement américain ne sera pas une tâche facile.»
Il faut une agence dédiée
Les Britanniques y réfléchissent. Dans leur rapport, le Royal United Services Institute (RUSI) s’interrogeait sur l’opportunité de créer une agence centralisée comme solution à la fragmentation des tâches, des compétences et des expertises liées à l’OSINT, mais concluait qu’il était encore trop tôt, et ce, en raison d’un risque de compartimentation des compétences.
Aux États-Unis, le pays le plus en pointe sur le sujet, le débat fait rage dans la communauté du renseignement. Pour le moment, c’est la Defense Intelligence Agency (DIA) qui a la charge de l’OSINT. Mais, comme l’explique le Center for Strategic and International Studies (CSIS), un cercle de réflexion, «l’émergence de l’IA, du Big Data et d’autres technologies transformatives doivent conduire la communauté du renseignement à réinventer comment elle conçoit, priorise et réalise ses missions». Le think tank recommande ensuite de «mieux intégrer l’OSINT dans la collecte de renseignements et l’expertise analytique».
Les défis liés à l’adoption généralisée de l’OSINT dans le renseignement français réclament une phase initiale de mise en place des structures, des procédures de standardisation, d’inventaire des outils, de développement de partenariats public-privé, etc. Et plutôt que de regrouper les divisions concernées de la DGSE, de la direction du renseignement militaire (DRM) ou possiblement du commandement de la cyberdéfense sous une direction «matrice», solution peu pratique, nous imaginons plutôt la création d’une entité spécialisée, positionnée à la fois comme centre de compétences et incubateur de ces mêmes compétences.
Avec ses communautés open source, ses écoles militaires et scientifiques, ses universités, ses jeunes pousses spécialisées dans la collecte et le traitement de données et l’intelligence artificielle, le pays dispose d’un écosystème favorable au développement d’une expertise OSINT. Une agence spécialisée permettra d’apporter une compétence unique au renseignement français, afin de l’aider à affronter les innombrables défis des prochaines années.
Il sera désormais possible de servir dans la réserve opérationnelle de cyberdéfense jusqu’à 72 ans, résultat d’un amendement parlementaire ajouté à la loi de programmation militaire pour 2024-2030.
Plus de 5000, c’est le nombre de cybercombattants dont disposera le commandement de la cyberdéfense (COMCYBER) en 2030, contre 3600 aujourd’hui. Le défi en termes de recrutement et de fidélisation est d’autant plus grand que « le cyber est un secteur en forte tension où il est difficile de trouver suffisamment de personnels qualifiés», constatait la députée MoDem Sabine Thillaye, à l’origine de cet amendement adopté fin mai.
L’une des solutions sera d’étendre à 72 ans la durée possible d’engagement dans la réserve opérationnelle. La mesure, déjà adoptée dans le secteur médical et pour certaines fonctions spécialisées de la Direction générale de la sécurité extérieure (DGSE), sera élargie au domaine cyber dans la prochaine LPM.
« Repousser l’âge permettrait, in fine, d’avoir un plus grand nombre de réservistes », estime Mme Thillaye. Et faciliterait l’atteinte de l’objectif de 500 réservistes actifs au profit du COMCYBER, contre 300 actuellement. La mesure permettra également au personnel « avec une très forte expérience dans le cyber de continuer à assurer la sécurité nationale », souligne la députée MoDem.
« Principal défi » et « principale richesse » du COMCYBER, les ressources humaines sont l’une des trois « lignes d’opération » tracées par son commandant, le général Aymeric Bonnemaison, lors de sa prise de fonction en septembre 2022. Cet effort sur la réserve ne sera pas de trop pour renforcer une capacité dans laquelle le gouvernement a prévu d’investir 4 Md€ au cours de la prochaine LPM.
Reste à corriger plusieurs handicaps, dont celui de la fluidité du recrutement, « qui pâtit parfois, notamment dans la réserve, de lourdeurs administratives», pointait le général Bonnemaison dans une récente audition parlementaire. Les salaires, moins compétitifs que dans le secteur privé, en sont un autre. « Des travaux sont en cours pour améliorer la situation », annonçait-il.
Avec ses futures Frégates de défense et d’intervention [FDI], la Marine nationale entrera dans « l’ère du tout-numérique », a récemment affirmé l’amiral Pierre Vandier, son chef d’état-major [CEMM], lors d’une audition à l’Assemblée nationale. Et, par exemple, la capacité de « Veille coopérative navale » [VCN], expérimentée par les frégates de défense aérienne [FDA] et les frégate multimissions [FREMM] en donne un avant-goût.
« Il y a trois ou quatre ans, avec l’arrivée des premiers bateaux numériques, nous avons eu l’intuition que la donnée en mer deviendrait un sujet majeur. Le Centre de services de la donnée Marine [CSD-M] s’est développé à la manière d’une start-up : nous travaillons avec des industriels, nous collectons les données des systèmes de combat, nous avons nos premiers data lakes et nous produisons des cas d’usage », a par ailleurs expliqué l’amiral Vandier aux députés.
Dans le même temps, la généralisation des technologies liées au numérique fait de l’espace informationnel un champ de conflictualité et de manœuvre à part entière. « Ce bouleversement technologique s’est traduit par un accroissement de la place des systèmes numériques pour l’appréciation de l’espace maritime, comme pour la conduite des opérations », résume la Marine nationale. En outre, si la supériorité technologie est une condition nécessaire pour espérer faire la différence au combat, elle peut ne pas être suffisante.
« La relation entre tactique navale et technologie est aussi cruciale qu’elle est précaire et instable : la technologie ne peut pas se départir de la tactique sans laquelle elle erre sans but, tandis que la tactique doit s’alimenter en permanence aux sources de la technique, au risque de devenir sclérosée. Il en résulte une relation d’interdépendance mutuelle, que le tacticien a tout intérêt d’équilibrer », expliquent le capitaine de vaisseau Thibault Lavernhe et le capitaine de frégate François-Olivier Corman, dans leur livre « Vaincre en mer au XXIe siècle« .
D’où la stratégie de Supériorité Informationnelle pour la Guerre Navale [SIGNAL] que vient de dévoiler la Marine nationale, à Toulon.
« Dans le combat naval, l’avance technologique ne se traduit pas mécaniquement par un avantage tactique décisif. La profusion d’informations induit également des risques spécifiques pour les unités opérationnelles ou les structures de commandement. Ainsi pour intégrer efficacement les disruptions du numérique […], il convient de les équilibrer avec les besoins de résilience, d’autonomie et d’évolutivité propres aux plateformes navales », fait valoir la Marine nationale.
Cependant, celle-ci n’est pas entrée dans les détails de cette « stratégie de supériorité informationnelle », si ce n’est qu’elle se décline selon six axes.
Ainsi, le premier vise à « diversifier les sources de captation de données », en s’appuyant sur les possibilités offertes par le New Space [le secteur spatial privé, ndlr]. Ensuite, il s’agira d’augmenter les « capacités de connectivité, sans renoncer à leur résilience» tout en optimisant la fusion des « informations tactiques en temps réel » [ce qui fait penser à la « liaison des armes sur mer » de l’amiral Raoul Castex].
Et cela va de pair avec la valorisation des données embarquées afin de « renforcer la compréhension des situations et l’aide à la décision » ainsi qu’avec une circulation de l’information à la fois plus rapide et plus fluide en matière de commandement et de contrôle [C2]. Enfin, il est question d’ouvrir de « nouvelles capacités tactiques dans les domaines de lutte ».
Ce dernier point est crucial car, comme le soulignent le capitaine de vaisseau Thibault Lavernhe et le capitaine de frégate François-Olivier Corman, le « rôle du tacticien ne s’arrête pas à connaître ses armes et à chercher à les améliorer sans cesse, mais consiste aussi et surtout à rechercher la cohérence entre les tactiques qu’il compte mettre en œuvre et les équipements dont il dispose ou ceux dont il s’apprête à disposer ».
Le fantassin et le cavalier d’aujourd’hui sont peut-être le combattant cyber ou le télépilote de demain. D’ici la fin de la décennie, plus de 10 000 postes seront en effet « transformés » au sein de l’armée de Terre pour rééquilibrer les fonctions opérationnelles, accompagner la montée en puissance de certaines capacités et gagner en réactivité face aux nouvelles menaces.
« L’armée de Terre est à la veille d’une évolution d’ampleur pour demeurer en action avec réactivité et puissance », annonçait le chef d’état-major de l’armée de Terre, le général Pierre Schill, mi-avril en audition parlementaire. Exit le modèle « Au contact », place à une « armée de Terre de combat » dont l’organisation orientée vers les fonctions opérationnelles exige notamment un rééquilibrage au sein des unités et entre unités.
Pour parvenir à cet équilibre, 10 500 postes, soit près d’un sixième de la force opérationnelle terrestre, seront transformés. Une mutation réalisée sans réelle variation des effectifs. Si la LPM prévoit la création de 700 postes dans l’armée de Terre, le format de la force opérationnelle terrestre restera figé à 77 000 militaires. « C’est celui qui avait été acté après les attentats de 2015 et qui a vu une remontée en puissance, essentiellement, des régiments d’infanterie et de cavalerie », nous rappelait ce vendredi le cabinet du ministre des Armées.
La transition engagée requiert dès lors un double effort, à la fois de formation et de mouvements internes. Ainsi, l’effectif du BTS cyberdéfense du lycée de Saint-Cyr-l’École, aujourd’hui d’une trentaine d’élèves, sera doublé dès la rentrée 2023, indique le CEMAT. Dans les régiments concernés, une centaine, « voire un peu plus », de militaires seront « transformés » par reconversion professionnelle ou remplacés à leur départ par de nouveaux engagés dotés de compétences spécialisées relevant de la guerre électronique, du cyber au contact, des drones.
« Dans la continuité de ce qui a déjà été initié, les régiments seront massivement équipés de drones allant des nano-drones aux drones opératifs qui seront armés, tout en étant progressivement dotés de munitions télé opérées dont nous voyons déjà le potentiel opérationnel dans les conflits en cours », annonçait le CEMAT. Environ 3000 drones sont attendus dans l’armée de Terre à l’horizon 2025, dont 90% de nano et micro-drones et 10% de drones spécialisés.
« Nous aurons également, dans les régiments d’infanterie, le retour des mortiers de 120 mm. C’est une chose qui avait disparu au cours des vingt dernières années », confirme l’entourage ministériel. Chaque régiment récupérera une section de mortiers lourds, de quoi permettre aux régiments d’artillerie de se concentrer sur l’intégration de nouveaux matériels, tels que les GRIFFON MEPAC perçus dès l’an prochain et munitions téléopérées (MTO) Larinae livrées à compter de 2028.
La recherche de cohérence suppose également un meilleur ratio entre unités de mêlée et capacités de commandement, d’appui et de soutien. « Quelques soldats vont quitter les régiments d’infanterie et de cavalerie pour rejoindre le génie et l’artillerie sur des compétences nouvelles», explique le cabinet. Parce qu’il est réalisé à effectifs presque inchangés, ce renforcement des moyens de franchissement, des feux longue portée ou des moyens d’acquisition nécessitera d’aller puiser dans les forces existantes. Après avoir été rehaussés pour atteindre le millier de combattants, les régiments d’infanterie auront donc « une taille plus ramassée » tout en étant sensiblement densifiés.
Cette densification est en réalité déjà visible dans certaines unités. Il y a dix jours, le 2ème régiment étranger d’infanterie (2e REI) a ainsi dissous sa 5ème compagnie, réaffectations internes ou externes à la clef pour ses légionnaires. Certains pourront intégrer la section de reconnaissance et de renseignement créée en décembre dernier au sein de la compagnie d’appui. La même logique sera adoptée pour les futures sections de mortiers et autres unités d’appui électronique et de MTO.
[TRIBUNE] L’analyse des conflits en Ukraine et dans le Haut-Karabakh permet de mieux cerner ce que la défense devrait faire de son budget inédit.
En janvier dernier, Alex Karp, le PDG d’un éditeur de logiciels, expliquait devant l’audience de Davos que sa société est «responsable de la majorité des tirs ciblés en Ukraine». Alex Karp est le patron de Palantir Technologies, une entreprise de Big Data qui, au même titre que Starlink, Planet Labs, Maxar, SunCalc ou GIS Arta, est devenue incontournable dans les milieux de la défense depuis le début de «l’opération militaire spéciale» en Ukraine.
Basé à Denver dans le Colorado, Palantir intègre, agrège et traite des données non structurées telles que des images satellitaires et de radars à synthèse d’ouverture, des images thermiques, des feeds de réseaux sociaux, des vidéos, puis «superpose» l’information traitée à des cartes numériques du champ de bataille, avant de faire des recommandations de cibles qui sont remontées à l’opérateur. Dans un échange avec le journaliste David Ignatius, Alex Karp renchérit: «La puissance des logiciels militaires algorithmiques est maintenant si grande qu’on pourrait la comparer à la possession d’armes nucléaires tactiques face à un adversaire disposant seulement d’armes conventionnelles.»
Aucun doute, nous sommes entrés dans une ère nouvelle, ce que les Américains appellent «algorithmic warfare». Une ère qui place la technologie au cœur de l’écosystème de la guerre de haute intensité. Pour la France, puissance moyenne avec des ambitions globales, il s’agit au plus vite de rattraper le retard.
Le grand bond en avant de la loi de programmation militaire
Dans un contexte lourd d’accélération des dépenses militaires partout dans le monde, la loi de programmation militaire (LPM) 2024-2030 prévoit d’allouer 413 milliards d’euros à la «transformation des armées», dont 10 milliards à l’innovation de la défense, répartis entre quatre niveaux principaux.
D’abord, le spatial: création d’un centre de commandement C4 (computerized command, control, communications) des opérations spatiales développé dans le cadre du programme «Action et résilience spatiales» (ARES), la programmation des satellites patrouilleurs-guetteurs, de lasers en orbite et de la conduite d’opérations spatiales militaires. Ensuite, l’exploitation des technologies de robotique sous-marine jusqu’à 6.000 mètres (drones sous-marins, robots, lutte antimines marines). Puis, un gros coup d’accélérateur en matière de cyberdéfense, autant en cybersécurité qu’en action numérique, et enfin, investissement renforcé dans le champ informationnel.
Toutefois, les projets semblent encore très nombreux pour des moyens limités. Ainsi, dans le document de référence de l’Agence de l’innovation de défense, on trouve pas moins de quatorze «thèmes d’intérêt», allant de la sécurité de la donnée jusqu’à la capacité amphibie du futur, en passant par le renforcement de la chaîne de commandement des opérations interarmées (C2 IA) et de l’interopérabilité avec les alliés, tandis que, dans la LPM, les contours des budgets alloués aux «technologies de rupture»telles que l’hypervélocité ou le quantique restent flous.
Souci de confidentialité ou manque de définition des projets? Ou dilemme classique des armées, écartelées entre des ambitions multiples (dissuasion, modernisation des trois armées, espace et cyber, projection globale, etc.) et ses budgets structurellement insuffisants? Tirant les leçons des conflits en Ukraine et du Haut-Karabakh, nous allons examiner les cinq chantiers qui nous paraissent essentiels à l’horizon 2030.
L’hypervélocité
Les armes hypersoniques combinent les avantages des missiles balistiques (vitesse) et des missiles de croisière (précision). Il en existe deux types, les missiles de croisière hypersoniques, qui peuvent être lancés de sous-marins, de navires de guerre ou de tout autre vecteur, et les planeurs hypersoniques, qui doivent être libérés dans l’espace avant de rentrer dans l’atmosphère. Extrêmement rapides et manœuvrables, les armes hypervéloces adoptent aussi une trajectoire alambiquée qui les rend beaucoup plus difficiles à détecter et à intercepter, posant un problème majeur aux défenses antiaériennes.
Dans ce domaine, la Chine, avec les planeurs hypersoniques Dongfeng-17 et Xingkong 2, et la Russie avec le Kinjal, le Zircon, ou l’Avangard, lancé depuis l’espace à une vitesse époustouflante de Mach 27, disposent d’une avance notable sur les États-Unis et sur l’Europe. Afin de contrer la menace, les Américains ont développé une constellation de satellites de surveillance en orbite basse, avec des capteurs susceptibles de détecter une attaque, et leur armée vient de lancer la production de vingt-quatre missiles hypersoniques. La France n’est pas en reste avec son projet d’ASN4G, futur missile de la composante aéroportée de la dissuasion.
En résumé, avec leur vitesse extrême et leur manœuvrabilité, les armes hypervéloces peuvent atteindre des objectifs dans la profondeur adverse ou en mer (un commandant de porte-avions aurait au mieux quelques secondes pour réagir); elles remettent en question l’idée d’une frappe nucléaire préemptive de l’adversaire sur les lanceurs de missiles balistiques; et, surtout, devenues des «marqueurs» stratégiques, elles se situent aux premières loges de la guerre psychologique que se mènent États-Unis, Chine et Russie.
Les essaims de drones et la lutte antidrones
L’Ukraine et, avant ça, le Haut-Karabakh ont été le théâtre d’une utilisation massive de drones armés qui frappent par leur disparité dans l’usage, la taille et le système de guidage. En l’absence d’une solution de lutte antidrones (LAD) universelle, les options pour contrer la menace sont: le brouillage des télécommandes ou des signaux GNSS, détection de l’émetteur du télépilote, capteurs thermiques ou systèmes radars adaptés pour contrer les drones kamikazes tels que les Shahed 136.
Mais l’autre sujet qui intéresse toutes les armées modernes, ce sont les drones en essaim, aériens, marins ou même sous-marins, capables de se déplacer de façon coordonnée, voire autonome grâce à l’intelligence artificielle, afin de réaliser des missions de reconnaissance, de brouillage ou d’attaque, en saturant et en leurrant l’adversaire.
Dans le cadre de leurs tests, Northrop Grumman et Raytheon ont déjà réussi à manœuvrer entre 100 et 200 drones de façon simultanée vers une cible donnée. En France, il y a le projet Icare de LAD et Dronisos, de Naval Group, avec les kits Icarus Swarms, essaims de minidrones dédiés à des missions précises telles que brouillage. Là encore, la prochaine LPM sera l’occasion de rattraper le temps perdu.
Les armes à énergie dirigée
Il s’agit des armes non cinétiques, de type laser ou micro-ondes par exemple. Leur usage est surtout envisagé dans la défense sol-air ou surface-air, notamment dans le cadre de la lutte antidrones ou de la protection de zone. Plus explicitement, la LPM devrait financer des recherches sur les armes laser, permettre d’étudier la faisabilité d’armes à faisceaux de particules et de développer des canons électromagnétiques (projets Pegasus et Rafira).
Le principe consiste à créer un champ électromagnétique entre deux rails conducteurs, soumettant un projectile à une forte accélération pour le lancer à très grande vitesse sur une cible parfois distante de 200 kilomètres. Ces nouvelles armes pourraient équiper des navires de surface, dans le cadre de la lutte antiaérienne.
Le combat collaboratif
Inspiré du Network-centric warfare américain, le combat collaboratif est un vecteur essentiel de la modernisation de l’armée française. Numérisation et circulation des informations en temps réel sur le champ de bataille, synchronisation des armes, utilisation de l’intelligence artificielle… Le combat collaboratif est le futur de la guerre de haute intensité, comme le démontre le conflit ukrainien.
L’idée, c’est que la supériorité opérationnelle future passera par la capacité d’échanger des volumes massifs de données en temps réel, de les traiter à grande vitesse afin de parvenir à la bonne décision avant l’adversaire (identification de la cible et sélection de la pièce d’artillerie, par exemple), et tout cela dans un cadre interarmées, donc multimilieux/multichamps, c’est-à-dire terrestre, maritime, aérien, exo-atmosphérique, cyber, électromagnétique et informationnel.
Bien qu’en avance sur ce sujet central de la guerre moderne (cf. le rapport de l’institut Rand, «Learning from the French Army’s Experience with Networked Warfare»), notamment avec le système d’information du combat Scorpion expérimenté lors de l’opération Barkhane, la France reste en retard par rapport aux États-Unis, qui sont en train de mettre en place une constellation de satellites en orbite basse afin de permettre une communication instantanée avec les soldats au sol.
Les modèles prédictifs appliqués à la défense
La transformation du champ de bataille par le Big Data, l’interconnectivité et les supercalculateurs n’en est encore qu’à ses débuts. Il y a déjà l’utilisation massive du renseignement en sources ouvertes (OSINT); la prochaine frontière serait la capacité de prévoir les conflits.
Échaudés par l’insurrection du 6 janvier 2021, des centres de recherche américains tels que CoupCast, Armed conflict location & event data project (Acled) ou PeaceTech Lab travaillent sur des programmes de prévision de troubles et de menaces à la sécurité intérieure, notamment par l’utilisation du «gradient boosting» (méthode utilisée pour construire des modèles prédictifs) et les «neural networks» (utilisés pour le deep learning).
L’autre exemple, c’est GIDE, pour Global information dominance experiment –rien à voir avec André. Mis en place il y a deux ans par le département américain de la Défense, GIDE récupère les données de capteurs positionnés un peu partout dans le monde –satellites, radars, sources ouvertes, etc. Le tout, traité par des supercalculateurs et assisté par l’intelligence artificielle, génère des modèles censés prévoir les intentions de l’ennemi, de façon à annihiler tout effet de surprise et à préparer une riposte adaptée avant que l’adversaire n’ait frappé. À quand un Minority Report de la guerre?