Selon son chef d’état-major [CEMAT], le général Pierre Schill, l’armée de Terre connaît un « trou d’air » en matière de recrutement, avec au moins 2000 postes qui ne devraient pas être pourvus avant la fin de l’année. Cette difficulté concerne surtout les militaires du rang, a-t-il dit, lors d’une audition à l’Assemblée nationale, le 11 octobre. Ce qui suggère que le recrutement « direct » de sous-officiers se maintient.
Quoi qu’il en soit, l’activité de l’École nationale des sous-officiers d’active [ENSOA] de Saint-Maixent, qui fête ses 60 ans cette année, ne devrait pas souffrir des tensions concernant le recrutement de l’armée de Terre.
En effet, au-delà de l’instruction initiale de ses élèves recrutés par la voie directe ou semi-directe et de l’accueil de stagiaires étrangers, l’ENSOA assure aussi la formation continue des sous-officiers tout au long de leur carrière.
Or, ce besoin en formation continue va continuer à croître dans les années à venir, notamment en raison de la réforme du parcours professionnel des sous-officiers, lancée en 2020 pour répondre aux nouveaux besoins induits par le programme SCORPION et par le durcissement de la préparation opérationnelle.
Cette année, l’ENSOA aura accueilli environ 6800 élèves et stagiaires. Et elle en attend plus de 7000 en 2024. Cette hausse de l’activité suppose un renforcement de l’encadrement [45 postes supplémentaires seront créés l’an prochain] ainsi que la construction de nouvelles infrastructures dans le périmètre de l’école.
« Nous sommes dans une phase de renforcement de l’École nationale des sous-officiers d’active. Je vais même plus loin. Le chantier général de renforcement de l’ENSOA, notamment en infrastructures mais aussi en cadres, c’est la priorité numéro un de l’armée de Terre aujourd’hui », a expliqué le général Schill, à l’occasion d’un déplacement à Saint-Maixent, cette semaine.
Par ailleurs, l’ENSOA aura à proposer de nouvelles formations pour répondre à des besoins « émergents » dans certains domaines, comme l’influence et le cyber.
Cependant, même avec de nouveaux bâtiments, la capacité d’accueil de l’école risque d’être insuffisante… Et l’un des leviers pour retrouver une certaine marge de manoeuvre passe par la réduction de la durée de la formation initiale des élèves sous-officiers, a avancé le CEMAT.
Ainsi, la formation initiale d’un élève sous-officier « direct » passera de huit à six mois. Et celle d’un élève issu du recrutement semi-direct, qui a déjà une expérience militaire, sera réduite à trois mois.
« Nous conservons cette notion de creuset à l’ENSOA, où passent tous nos sous-officiers. Comme le volume [d’élèves et de stagiaires] est plus important, on peut augmenter les capacités de l’école, c’est ce que nous faisons en renforçant l’encadrement et en construisant de nouveaux bâtiments, mais ce n’est pas immédiat. Pour faire face en conservant ce socle, on prend cette mesure de réduction de la formation initiale, compensée par un allongement de la formation assurée ensuite dans les écoles d’armes et les régiments », a détaillé le général Schill, dans les pages du quotidien « La Nouvelle République ».
Pour l’armée de Terre, ce raccourcissement de la durée de la formation initiale ne vise pas seulement à permettre à l’ENSOA d’accroître sa capacité d’accueil de stagiaires : elle répond aussi au besoin d’avoir de jeunes sous-officiers qui rejoignent plus vite les unités opérationnelles.
Hormis quelques publications, parfois récentes, comme « Les tueurs de la République » de Vincent Nouzille ou « Les guerriers de l’ombre » de Jean-Christophe Notin, la « littérature » sur le Service Action de la Direction générale de la sécurité extérieure [DGSE] est peu abondante. Et quand la presse en parle, c’est qu’une opération [ou un entraînement] a mal tourné [ce qui arrive rarement] ou que le débat sur son éventuel rapprochement avec les forces spéciales a été relancé…
Par ailleurs, le ministère des Armées n’évoque pratiquement jamais le Service action… sauf dans les pages du Journal Officiel. Et, ces dernières années, seul Bernard Bajolet, alors à la tête de la DGSE, a confié qu’il était utilisé « au plein de ses capacités », à l’occasion d’une audition parlementaire réalisée peu après les attentats commis en France par l’État islamique [EI ou Daesh].
Cela étant, on sait que le Service Action se compose de trois unités chapeautées par le Centre d’instruction des réserves parachutistes [CIRP] de l’armée de Terre, du Groupe aérien mixte 56 « Vaucluse » de l’armée de l’Air & de l’Espace [AAE] et du navire Alizée de la Marine nationale.
Quoi qu’il en soit, pour le lancement de Terre Mag, son nouveau magazine d’informations, l’armée de Terre a fait le choix de braquer les projecteurs sur l’une des trois unités du CIRP, à savoir le Centre parachutiste d’instruction spécialisée [CPIS] établi à Perpignan… et dont le DGSE ne parle même pas sur son site Internet.
Ainsi, on apprend que cette unité prépare « des dizaines » de militaires « triés sur le volet » à des « actions clandestines de coercition et à la guérilla » dans les zones de crise, en particulier « là où les forces spéciales ne sont pas autorisées à opérer ». Ces activités peuvent conduire à « exercer une pression ou une influence sur un individu, une organisation ou un État » et inclure « du renseignement, des cyberattaques, des campagnes de désinformation, etc. ».
« Nos agents agissent hors du cadre législatif. C’est la principale différence avec les forces spéciales ou armées en général », rappelle le chef de corps du CPIS dans les pages de Terre Mag.
L’une des spécificités de cette unité [mais qui doit valoir aussi pour les deux autres du CIRP, à savoir le Centre parachutiste d’entraînement aux opérations maritimes et le Centre parachutiste d’entraînement spécialisé] est que les opérationnels disposent « d’une autonomie incomparable dans la préparation et la conduite » de leurs missions. « Chacune est unique et les équipes projetées changent en permanence, selon les besoins », explique Terre Mag.
Visiblement, l’activité du CPIS est intense. « Les agents cumulent en général plusieurs spécialités. Leur rythme de projection s’élève à environ 200 jours par an », apprend-on en effet.
Aussi, la sélection est impitoyable… et pour le chef de corps du CPIS, « présenter son dossier est déjà un acte de courage ». Ainsi, un candidat fera d’abord l’objet d’une enquête de sécurité, qui s’intéressera aussi à son entourage. Puis il aura à passer des entretiens, des tests psychotechniques et une évaluation de « mise en situation sur le terrain ». À noter que Terre Mag ne parle pas de tests sportifs mais sans doute que cela va de soi…
Une fois ces étapes passées, le volontaire va suivre une formation de dix-huit mois, laquelle alterne des phases d’apprentissage et de restitution. Et l’échec est interdit. Mais d’après Terre Mag, très peu de candidats échouent, en raison notamment de la solidité du processus de sélection, lequel met l’accent sur l’expérience opérationnelle, la capacité à se fondre dans la population, la rusticité, l’honnêteté intellectuelle ainsi que la capacité à gérer la tension nerveuse et à supporter l’isolement.
« Les personnes qui se présentent veulent donner un sens plus grand à leur engagement. Elles ne cherchent ni la reconnaissance, ni les médailles. Il n’y a pas de place pour l’ego chez nous », résume le chef de corps du CPIS.
Le potentiel révolutionnaire de l’informatique quantique constitue une rupture technologique majeure
OPINION. L’informatique quantique diffère de l’informatique classique en utilisant des bits quantiques (qubits) au lieu de bits classiques pour effectuer des calculs. Les qubits peuvent exister dans plusieurs états simultanément, ce qui permet un nombre considérablement accru de résultats potentiels. L’informatique quantique va transformer radicalement beaucoup de secteurs d’activité. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.
L’informatique quantique en est encore à ses balbutiements, mais elle a le potentiel de tout révolutionner, de la cryptographie à la découverte de médicaments. Cela pourrait conduire au développement de nouveaux médicaments plus efficaces et ayant moins d’effets secondaires. C’est aussi un défi majeur pour la sécurité informatique. Les chercheurs et les entreprises technologiques devront donc trouver de nouvelles méthodes de chiffrement qui peuvent résister à la puissance des ordinateurs quantiques. Cela pourrait impliquer le développement de nouveaux algorithmes de chiffrement, ou l’utilisation de principes de la mécanique quantique pour créer ce que l’on appelle le « chiffrement quantique ».
Rappelons que les ordinateurs quantiques fonctionnent sur la base de principes clés de la physique quantique :
Qubits :
La pierre angulaire de l’informatique quantique, les qubits, sont la version quantique des bits binaires classiques. Contrairement aux bits réguliers qui sont soit 0 soit 1, un qubit peut représenter 0, 1 ou les deux en même temps.
Superposition :
Grâce à la superposition, les qubits peuvent effectuer plusieurs calculs simultanément. C’est ce principe qui donne aux ordinateurs quantiques leur puissance de calcul exponentielle.
Intrication :
Cet effet quantique permet aux qubits de se lier, de sorte que l’état d’un qubit peut affecter instantanément l’état d’un autre, quelle que soit la distance qui les sépare. Cette propriété permet aux ordinateurs quantiques de résoudre des problèmes complexes plus efficacement que les ordinateurs classiques.
Portes quantiques :
Les portes quantiques sont des opérations qui peuvent être effectuées sur un ensemble de qubits. Elles ressemblent aux portes logiques de l’informatique classique mais, grâce à la superposition et à l’intrication, les portes quantiques peuvent traiter simultanément toutes les entrées possibles.
Les ordinateurs quantiques nécessitent une infrastructure physique importante, refroidissant souvent la machine à des températures proches du zéro absolu et maintenan
IBM a démontré que les ordinateurs quantiques pouvaient surpasser les principales simulations classiques .À l’aide du processeur quantique IBM Quantum « Eagle », composé de 127 qubits supraconducteurs sur une puce, ils ont réussi à générer de grands états intriqués qui simulent la dynamique de spin d’un modèle de matériau.
L’ordinateur quantique de Google, Sycamore, a accompli une tâche qui aurait nécessité près d’un demi-siècle pour un ordinateur traditionnel.
Avantages du quantique
Les principaux avantages des ordinateurs quantiques sont notamment :
Plus rapide:
il peut effectuer n’importe quelle tâche plus rapidement par rapport à un ordinateur classique. Parce que les atomes se déplacent plus rapidement dans un ordinateur quantique qu’un ordinateur classique.
Précis:
sa précision de plus haut niveau le rend adapté à la sécurité nationale et au traitement des mégadonnées.
Efficacité énergétique:
il gaspille moins d’énergie
Les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques. Il est plus probable qu’ils coexisteront avec leurs homologues classiques, donnant accès aux technologies quantiques lorsque des calculs avancés sont nécessaires. Il y aura une coexistence entre l’informatique classique et l’informatique quantique comme il y a une coexistence des unités de traitement graphique (GPU) et des unités centrales de traitement (CPU) : le processeur exécute la plupart des tâches tandis que le GPU prend en charge les graphiques sophistiqués, le rendu vidéo et, de plus en plus, l’apprentissage automatique.
L’utilisation d’une machine classique restera la solution la plus simple et la plus économique pour résoudre la plupart des problèmes. Mais les ordinateurs quantiques promettent d’alimenter des avancées passionnantes dans divers domaines, de la science des matériaux à la recherche pharmaceutique. Les entreprises expérimentent déjà avec eux pour développer des choses comme des batteries plus légères et plus puissantes pour les voitures électriques, et pour aider à créer de nouveaux médicaments.
Voici quelques chiffres qui résument les grandes tendances du marché de l’informatique quantique :
La taille du marché de l’informatique quantique était évaluée à environ 1 milliard en 2022 à 8 milliards de dollars d’ici 2030
D’ici 2030, 2.000 à 5.000 ordinateurs quantiques seraient opérationnels étant donné qu’il existe de nombreuses pièces du puzzle de l’informatique quantique, le matériel et les logiciels nécessaires pour gérer les problèmes les plus complexes pourraient ne pas exister avant 2035 ou au-delà.
La plupart des entreprises ne seront pas en mesure de tirer une valeur significative de l’informatique quantique avant 2035, bien que quelques-unes verront des gains au cours des cinq prochaines années.
De nombreux secteurs révolutionnés
L’informatique quantique va révolutionner de nombreuses industries.
Par exemple :
La finance
L’industrie de la finance et de l’investissement est l’un des secteurs qui pourraient grandement bénéficier de l’IA quantique. Avec la capacité d’analyser de grandes quantités de données en temps réel, les algorithmes d’IA quantique pourraient aider les sociétés financières à prendre des décisions d’investissement plus éclairées et à gérer les risques plus efficacement.
Par exemple, l’IA quantique pourrait être utilisée pour analyser les tendances du marché et prédire le comportement des actions, des obligations et d’autres instruments financiers.
Cela pourrait aider les investisseurs à prendre des décisions plus éclairées quant au moment d’acheter, de vendre ou de conserver leurs investissements.
Quantum AI pourrait également aider les entreprises financières à identifier de nouvelles opportunités d’investissement.
En analysant de grandes quantités de données, les algorithmes d’IA quantique pourraient identifier les tendances émergentes et les industries prêtes à croître. Cela pourrait aider les investisseurs à entrer au rez-de-chaussée de nouvelles industries et potentiellement gagner des retours importants sur leurs investissements.
La santé et la biotechnologie
Avec la capacité d’analyser des données génétiques et d’autres informations médicales complexes, l’IA quantique pourrait aider à identifier de nouveaux traitements et remèdes contre les maladies.
Par exemple, l’IA quantique pourrait être utilisée pour analyser de grandes quantités de données génétiques afin d’identifier les causes sous-jacentes de maladies telles que le cancer. Cela pourrait aider les chercheurs à développer de nouveaux traitements qui ciblent les mutations génétiques spécifiques qui causent ces maladies.
Quantum AI pourrait également aider les prestataires de soins de santé à personnaliser les traitements pour chaque patient.
En analysant les données génétiques d’un patient, les algorithmes d’IA quantique pourraient identifier les traitements les plus efficaces pour l’état spécifique de ce patient. Cela pourrait aider les fournisseurs de soins de santé à fournir des traitements plus efficaces et à améliorer les résultats pour les patients.
Les chaînes d’approvisionnement et la logistique
La logistique et la gestion de la chaîne d’approvisionnement sont un autre domaine qui pourrait grandement bénéficier de l’IA quantique. En optimisant des réseaux logistiques complexes, les entreprises pourraient réduire leurs coûts et améliorer leur efficacité.
Par exemple, l’IA quantique pourrait être utilisée pour analyser les routes maritimes et les délais de livraison afin d’identifier le moyen le plus efficace de transporter des marchandises.
En analysant les données de vente et d’autres facteurs, les algorithmes d’IA quantique pourraient prédire la demande de produits et aider les entreprises à optimiser leurs niveaux de stocks. Cela pourrait aider les entreprises à réduire gaspiller et améliorer rentabilité .
La modélisation climatique et environnementale
L’IA quantique pourrait également avoir un impact significatif sur la modélisation du climat et de l’environnement . En analysant de grandes quantités de données environnementales, les chercheurs pourraient mieux comprendre l’impact du changement climatique et développer des stratégies pour atténuer ses effets. Par exemple,
l’IA quantique pourrait être utilisée pour analyser les données satellitaires afin de suivre les changements du niveau de la mer et de prévoir l’impact de l’élévation du niveau de la mer sur les communautés côtières.
L’IA quantique pourrait également être utilisée pour analyser les conditions météorologiques et prédire la probabilité de catastrophes naturelles telles que les ouragans et les tornades.
Principales innovations
Voici quelques-unes des principales innovations dans le domaine de l’informatique quantique :
Qubits améliorés :
Les qubits, les unités de base de l’informatique quantique, sont les équivalents des bits classiques. Les chercheurs travaillent sur le développement de qubits plus fiables et plus cohérents, capables de stocker et de manipuler l’information quantique de manière plus stable. Différentes technologies sont explorées, comme les qubits supraconducteurs, les qubits à base d’ions piégés, les qubits à base de photons, etc.
Augmentation du nombre de qubits :
L’échelle et la complexité des calculs quantiques dépendent de la quantité de qubits disponibles. Les chercheurs cherchent à augmenter le nombre de qubits de manière significative pour pouvoir exécuter des algorithmes quantiques plus puissants. Les ordinateurs quantiques avec un grand nombre de qubits permettront de réaliser des calculs inaccessibles aux ordinateurs classiques.
Correction des erreurs quantiques :
Les systèmes quantiques sont susceptibles d’erreurs en raison de facteurs tels que le bruit, les interférences et les instabilités. La correction des erreurs quantiques est un domaine de recherche actif qui vise à développer des techniques pour détecter et corriger les erreurs quantiques, garantissant ainsi la fiabilité des calculs quantiques sur des systèmes réels.
Algorithms quantiques :
Les chercheurs travaillent sur le développement d’algorithmes spécifiques conçus pour être exécutés sur des ordinateurs quantiques. Ces algorithmes exploitent les propriétés quantiques pour résoudre des problèmes complexes plus rapidement que les algorithmes classiques. Des exemples d’algorithmes quantiques prometteurs incluent l’algorithme de factorisation de Shor, l’algorithme de recherche de Grover et l’algorithme de simulation quantique.
L’utilisation de l’apprentissage automatique quantique et de l’intelligence artificielle quantique :
les chercheurs explorent l’utilisation de l’informatique quantique pour développer de nouveaux algorithmes d’apprentissage automatique et d’intelligence artificielle qui peuvent tirer parti des propriétés uniques des systèmes quantiques.
Montée en puissance des services cloud quantiques :
avec l’augmentation du nombre de qubits et des temps de cohérence, de nombreuses entreprises proposent désormais des services cloud quantiques aux utilisateurs, ce qui leur permet d’accéder à la puissance de l’informatique quantique sans avoir à construire leur propre ordinateur quantique.
Avancement de la correction d’erreurs quantiques :
Pour rendre un ordinateur quantique pratiquement utile, il est nécessaire de disposer de techniques de correction d’erreurs quantiques pour minimiser les erreurs qui se produisent pendant le calcul. De nombreuses nouvelles techniques sont en cours de développement pour atteindre cet objectif.
Encore à un stage précoce
L’informatique quantique est encore à un stade précoce de développement, et de nombreux défis techniques doivent être surmontés avant que des systèmes quantiques largement utilisables et commercialement viables ne deviennent réalité. Cependant, les progrès continus dans ces domaines d’innovation ouvrent des perspectives passionnantes pour l’informatique quantique dans un avenir proche.
Si on connaissait le score des matchs à l’avance, il n’y aurait strictement aucun intérêt à les jouer. Il en est de même pour les batailles et même encore moins, car on y meurt. Sauf à constater un rapport de forces initial écrasant en faveur d’un camp au départ d’une opération militaire, il n’est pas possible de prédire ce qui va se passer ensuite, ne serait-ce que parce que les moyens engagés sont énormes et que les interactions entre les différentes forces amies et ennemis relèvent rapidement du problème à trois corps de la science complexe. Décréter dès maintenant le succès de l’échec final d’une opération en cours est donc comme décider qu’une équipe a gagné ou perdu à 30 minutes de la fin du match alors que le score est toujours nul et qu’il n’y a pas de domination outrageuse d’un camp.
Et bien évidemment ces opérations-matchs, sanglantes, ne sont-elles même que des affrontements isolés dans la cadre d’une confrontation-compétition de longue haleine, ce qui implique une réflexion en trois étages, qui forment aussi trois niveaux d’incertitude : la stratégie pour gagner la compétition, l’art opérationnel pour gagner les matchs de différente nature, la tactique pour gagner les actions à l’intérieur des matchs. Ces opérations-matchs, il y a plusieurs et de nature différente en cours dans la guerre russo-ukrainienne et on assiste donc aussi à beaucoup d’indécisions, au sens de sort hésitant et non de manque de volonté. Faisons-en rapidement le tour, en se concentrant aujourd’hui, pour respecter un format de fiche à 3 pages, seulement sur les « opérations de coups ».
J’avais utilisé initialement l’expression « guerre de corsaires » pour désigner les opérations en profondeur. C’était une expression du général Navarre, commandant le corps expéditionnaire français dans la guerre en Indochine, pour désigner le mode opératoire qu’il souhaitait initialement appliquer contre le corps de bataille Viet-Minh à base de guérilla, de frappes aériennes, d’opérations aéroportées et de camps temporaires. L’idée était bonne mais l’application fut déficiente. Le principe général est de donner de multiples petits « coups » : raids au sol, frappes aériennes ou navales, sabotages, etc. afin d’affaiblir l’ennemi. On peut espérer que cet affaiblissement suffise par cumul à faire émerger un effet stratégique, une reddition par exemple – ce qui arrive rarement – ou une neutralisation de l’ennemi, réduit à une menace résiduelle. Le plus souvent cependant cet affaiblissement est surtout destiné à faciliter les opérations de conquête, l’autre grand mode opératoire où on cherche à occuper le terrain et disloquer le dispositif ennemi.
Les opérations de coups relèvent d’abord des forces des espaces communs, la marine, l’armée de l’Air, la cyber-force, et des Forces spéciales, de manière autonome ou parfois combinée.
Passons rapidement sur les cyber-opérations, non parce que ce ne soit pas intéressant mais parce qu’il y a peu d’éléments ouverts sur cette dimension, dont on avait fait grand cas avant-guerre et dont on est obligé de constater que cela n’a pas eu les effets spectaculaires attendus. Peut-être que ce n’est plus un « océan bleu », une zone vierge dans laquelle les possibilités sont considérables, mais un océan très rouge occupé maintenant depuis longtemps, car l’affrontement n’y connaît ni temps de paix ni temps de guerre, et où les parades ont désormais beaucoup réduit l’efficacité initiale des attaques. Peut-être aussi que cet espace n’est simplement pas vu, et donc abusivement négligé par les commentateurs comme moi, d’autant plus que ce n’est pas leur domaine de compétences. On pressent néanmoins qu’il y a là un champ où les Ukrainiens, avec l’aide occidentale qui peut s’exercer à plein puisqu’elle y est peu visible, peuvent avoir un avantage et donner des coups importants aux réseaux russes.
Le champ aérien est beaucoup plus visible. On peut y distinguer le développement d’une opération ukrainienne spécifique anti-cités, que l’on baptisera « opération Moscou » car la capitale en constitue la cible principale. Sa première particularité est de n’être effectuée, désormais presque quotidiennement, qu’avec des drones aériens à longue portée made in Ukraine, les alliés occidentaux interdisant aux Ukrainiens d’utiliser leurs armes de pour frapper le sol russe. Des drones donc, et pour rappel entre trois types de campagnes aériennes utilisant uniquement avions, missiles et drones, la diminution de puissance projetée est quasiment logarithmique. Autrement dit, avec les seuls drones on fait très peu de dégâts. Un seul avion Su-30SM russe peut porter la charge utile de 400 drones ukrainiens Beaver, avec cette particularité qu’il pourra le faire plusieurs fois.
Qu’à cela ne tienne, l’opération Moscou introduit des nuisances – la paralysie des aéroports par exemple – mais fait peu de dégâts et c’est tant mieux puisque cette opération a un but psychologique. Elle satisfait le besoin de réciprocité, sinon de représailles et vengeance, de la population ukrainienne frappée par les missiles russes depuis le premier jour de guerre, et vise également à stresser la population russe, notamment celle de la Russie préservée, urbaine et bourgeoise de Moscovie, en faisant entrer la guerre chez elle.
Sa deuxième particularité est qu’elle est peut-être la première campagne aérienne « non violente » de l’histoire, hormis les bombardements de tracts de la drôle de guerre en 1939-1940, puisqu’il y une volonté claire de ne pas faire de victimes en frappant de nuit des objectifs symboliques (bureaux de ministères ou d’affaires en particulier, voire le Kremlin) vides. Cela le mérite aussi de satisfaire le troisième public : le reste du monde et en particulier l’opinion publique des pays alliés de l’Ukraine qui accepterait mal que celle-ci frappe sciemment la population des villes russes. Il n’est pas sûr que les Ukrainiens y parviennent toujours. Il y a déjà eu des blessés par ces attaques de drones et on n’est statistiquement pas à l’abri d’une bavure qui ferait des morts. Cela aurait pour effet à la fois d’écorner l’image de la cause ukrainienne – et cette image est essentielle pour le maintien ou non du soutien occidental – et de provoquer une réaction anti-ukrainienne de cette population russe que l’on présente surtout comme apathique.
Toutes ces attaques par ailleurs sont autant de défis à la défense aérienne russe qui peut se targuer de petites victoires et de protéger la population lorsqu’elle abat des drones mais se trouve aussi souvent prise en défaut. Dans tous les cas, elle est obligée de consacrer plus de ressources à la défense des villes et donc moins sur le front, et cette présence physique dans les villes contribue encore à faire « entrer la guerre » dans la tête des civils russes, un des buts recherchés par les Ukrainiens.
En bon militaire, je préfère les actions anti-forces aux actions anti-cités et l’opération Bases consistant à attaquer les bases aériennes russes dans la profondeur me paraît beaucoup plus utile que de détruire des bureaux d’affaires. Sur 85 avions et 103 hélicoptères russes identifiés comme détruits ou endommagés par Oryx, respectivement 14 et 25 l’ont été, au minimum, dans les bases. Ces attaques ont surtout eu lieu dans les territoires occupés, dont la Crimée, mais aussi en Russie, près de Rostov le 26 février et le 1er mars avec deux missiles OTR-21 Tochka. Le 30 octobre, c’est un sabotage au sol qui détruit ou endommage dix hélicoptères dans la région d’Ostrov très près de la Lettonie. En septembre 2022, ce sont deux bombardiers qui sont touchés (un Tu-95 et un Tu-22) lors de deux attaques au drone Tu-141 semble-t-il (des vieux drones de reconnaissance à longue portée modifiés) et plus récemment le 19 août près de Novgorod (un Tu-22) de manière plus mystérieuse. On peut rattacher à cette opération, le raid d’hélicoptères Mi-24 du 31 mars 2022 sur un dépôt de carburant à Belgorod, l’attaque aux drones de la raffinerie de Novochakhtinsk le 22 juin 2022. Toute cette campagne anti-forces en profondeur n’est encore qu’une série de coups d’épingle, mais ce sont les coups d’épingle les plus rentables qui soient.
Les Ukrainiens ont tout intérêt à développer encore cette campagne en profondeur avec une force de sabotage, autrement dit clandestine. C’est plus difficile à organiser que des frappes aériennes mais les effets sont peut-être plus forts. Comme les alunissages, la présence d’humains provoque plus d’impact psychologique dans les opérations militaires que celle de simples sondes et machines. Savoir que des hommes ont pénétré, violé presque, l’espace national en l’air et plus encore au sol pour y provoquer des dégâts provoque plus de choc que si les mêmes dégâts avaient été faits par des drones. Si en plus on ne sait pas qui a effectué ces actions et c’est la paranoïa qui se développe, dans la société et le pouvoir russes plus qu’ailleurs. Les Ukrainiens ont tout intérêt surtout à développer encore leur force de frappe à longue portée au-delà des drones, qui apportent surtout le nombre, avec des missiles à portée de plusieurs centaines de kilomètres. C’est ce qu’ils sont en train de faire avec plusieurs projets qu’il ne s’agit simplement d’inventer mais surtout de produire en masse. S’ils y parviennent, la campagne de frappes en profondeur prendra une tout autre dimension, qu’elle soit anti-cités avec les risques évoqués ou préférentiellement anti-forces. Peut-être par ailleurs qu’à partir d’un certain seuil, disons si tous les jours le sol russe est attaqué par des drones, missiles ou commandos, l’interdiction d’emploi des armes occidentales n’aura plus de sens et que les Ukrainiens pourront aussi les utiliser, ce qui augmentera les capacités d’un coup.
Si la capacité ukrainienne d’agir dans la profondeur russe n’a cessé d’augmenter, celle de la Russie en Ukraine n’a cessé au contraire de se réduire. Entre une puissante force aérienne, un arsenal imposant de missiles et une dizaine de brigades de forces spéciales, on pouvait imaginer l’Ukraine ravagée dans toute sa profondeur dès le début de la guerre.
L’emploi de tous ces moyens n’a duré en fait que quelques semaines et à un niveau très inférieur à ce à quoi on pouvait s’attendre, la faute à une doctrine incertaine en la matière et surtout à une défense aérienne ukrainienne solide. Les Russes ont donc descendu très vite l’échelle logarithmique de la puissance projetée, en commençant par réduire l’activité de leurs aéronefs pilotés au-dessus du territoire ukrainien pour les consacrer à la ligne de front, puis en réduisant rapidement la cadence de tir de missiles modernes, en leur substituant ensuite de plus en plus d’autres types de missiles aussi dévastateurs mais de moindre précision et souvent de moindre portée, et enfin à utilisant de plus en plus à la place des drones Shahed et des lance-roquettes multiples pour les villes à portée de tir.
Le tonnage d’explosif lancé par les Russes n’a cessé de se réduire, tout en se concentrant sur les villes assez proches de la ligne de front et en faisant quasiment tout autant de victimes civiles par moindre précision. On ne voit d’ailleurs plus désormais de ligne directrice dans ces frappes hormis le besoin de répondre par des représailles aux coups ukrainiens. C’est d’autant plus absurde que cela contribue à dégrader l’image russe, ce dont ils semblent se moquer à part que cela joue sur le soutien de l’opinion publique occidentale à l’Ukraine, une donnée stratégique pour eux. Bien entendu, cela ne diminue en rien la détermination ukrainienne, bien au contraire.
La campagne aérienne en profondeur russe pourrait être relancée par une production accrue de missiles et/ou leur importation cachée auprès de pays alliés, mais surtout par l’affaiblissement soudain de la défense aérienne ukrainienne en grande tension de munitions. Une défense aérienne sans munitions et ce sont les escadres de chasseurs-bombardiers russes qui pourraient pénétrer dans le territoire ukrainien et faire remonter d’un coup le logarithme de la puissance. Un des intérêts des avions F-16, qui sont avant tout des batteries air-air volantes à 150 km de portée, est de pouvoir contribuer à empêcher cela.
Un des mystères de cette guerre est l’emploi étonnant des Forces spéciales par les Russes. Le ministère de la Défense russe avait pris de constituer une solide armée. Chaque service de renseignement russe, FSB, SVR, GRU, dispose de ses Spetsnaz (spetsialnoe naznachenie, emploi spécial). Les deux unités du FSB, Alfa and Vympel, totalisent peut-être 500 hommes. Zaslon, l’unité du SVR à vocation internationale en représente peut-être 300. Le gros des forces est évidemment constitué par les sept brigades Spetsnaz à 1 500 hommes du GRU, le plus souvent rattachés à des armées, et les bataillons à 500 hommes affectés à chacune des flottes, soit avec le soutien peut-être 12 000 hommes. Les troupes d’assaut aérien (VDV) ont également formé un régiment puis une brigade spéciale, la 45e, enfin, un commandement des opérations spéciales (KSO) de peut-être 1500 hommes, a été rattaché directement au chef d’état-major des armées, à la grande colère du GRU. Bref, il y avait là, avec l’appui des VDV, de quoi mener constituer une force de sabotage dans la grande profondeur, ou même de guérilla, par exemple le long de la frontière polonaise en s’appuyant sur la base biélorusse de Brest.
Il n’en a rien été, la défense aérienne ukrainienne empêchant les opérations héliportées et la défense territoriale ou les forces de police ukrainiennes maillant bien le terrain. Les Forces spéciales, 45e brigade et brigades GRU ont d’abord été utilisées en avant, clandestinement ou non, des opérations terrestres, puis de plus en plus en remplacement d’une infanterie de l’armée de Terre totalement déficiente. Une 22e brigade Spetsnaz très réduite et ce qui reste de la 45e brigade sont ainsi actuellement en train de combattre en première ligne devant Robotyne. Des occasions ont très certainement été gâchées en la matière par les Russes et on ne voit pas comment il pourrait y remédier. Sans doute y songent-ils mais on n’improvise pas une force d’action en profondeur.
Au bilan et il faut le rappeler, les opérations en profondeur apportent rarement seules des effets stratégiques, mais elles contribuent à l’affaiblissement de l’ennemi à condition de ne pas coûter plus cher qu’elles ne « produisent ». À ce titre, les opérations russes ne produisent plus grand-chose, à mort des morts et des blessés et des destructions de cathédrale, ou tout ou plus un affaiblissement économique en s’attaquant par exemple aux infrastructures de commerce de céréales. Dans un croisement des courbes stratégiques, selon l’expression de Svetchine, les Ukrainiens montent au contraire en puissance, mais les effets matériels restent minimes au regard de ce qui se passe sur le front et il s’agit surtout d’effets psychologiques, assez flous mais pourtant certains. En 2024, il en sera sans doute autrement.
La prochaine fois on parlera de guérilla d’État terrestre ou navale.
Quelques semaines à peine après la fin de l’exercice ORION, l’état-major des Armées (EMA) livrait déjà ses premiers retours d’expérience au cours d’une audition parlementaire. L’occasion de revenir sur quelques lacunes capacitaires pressenties et confirmées à l’issue de ce « test de vérité » conduit sur plusieurs mois.
« Nous avons atteint nos limites«
« Si on affirmait qu’il ne manque pas un bouton de guêtre, on enverrait le pays « dans le mur » comme par le passé. Au contraire, regardons objectivement nos difficultés et nos marges de progrès », notait le général de division Yves Métayer général de division, chef de la division « emploi des forces » à l’EMA, peu de temps avant la pause estivale.
Entre autres brèches détectées, la résilience et le dimensionnement des outils et réseaux de communication des armées, essentiellement d’ancienne génération. « Dans le domaine des systèmes d’information et de communication (SIC), nous avons atteint nos limites. Nous avons été très contraints, notamment dans les flux de données», souligne le général Métayer.
La marche à franchir n’est pas mince. Conduit dans un cadre interalliés, un engagement de haute intensité nécessiterait « vingt fois plus de flux que nous n’en disposons aujourd’hui pour transmettre et échanger toutes les données qui nous sont nécessaires », estime-t-il. Et ce besoin de débit ne fera qu’augmenter, notamment du fait d’un programme SCORPION dont l’enjeu d’infovalorisation fait de chaque plateforme et chaque combattant un « générateur d’informations ».
De nouveaux moyens
Face à ce constat, pas question de rester les bras croisés. « Nous avons identifié parmi les moyens déterminants pour prendre l’ascendant des lacunes qui sont au cœur de l’ambition capacitaire de la LPM [loi de programmation militaire] », rappelait le général Métayer. Bien que le sujet SIC ne bénéficie pas d’un « patch » dédié dans la LPM 2024-2030, des influx technologiques sont attendus au travers de certains grands ensembles.
D’une part, les communications, qu’importe le milieu, sont parmi les 10 axes prioritaires d’un patch innovation abondé à hauteur de 10 Md€ sur sept ans. L’espace, d’autre part, sera créditée de 6 Md€ sur la période. Lancé le 6 juillet, le deuxième satellite SYRACUSE IV sera qualifié dans huit mois à l’issue d’une série de tests. La constellation alors formée participera à tripler le débit global à disposition des armées.
Si le lancement du troisième satellite SYRACUSE IV passe définitivement à la trappe au profit de la constellation européenne IRIS², l’enveloppe prévue permettra de jeter les bases de SYRACUSE V, nouvelle génération de satellites souverains géostationnaire en orbite basse.
Des évolutions sont aussi attendues au sol. D’une part, le segment sol de SYRACUSE IV se traduira par le renouvellement des stations utilisateurs. Plus de 440 stations sols plus puissantes, mieux sécurisées et mobiles seront déployées dans les trois armées grâce aux deux premiers incréments notifiés en 2019 et 2020 à Thales. Certaines seront embarquées sur des véhicules SCORPION. Dès 2021, quelques Griffon EPC recevait ainsi une antenne « SATCOM On The Move » (SOTM) conçue par Airbus afin d’entamer le remplacement des VAB VENUS.
Également confié à Thales, le programme de radio logicielle CONTACT doit lui aussi participer à fluidifier et sécuriser les liaisons de données tactiques. Toutes versions et tous milieux confondus, 5790 postes auront en théorie été livrés aux forces d’ici 2024. Ce parc sera doublé à l’horizon 2030.
La piste de l’hybridation
Reste qu’aucune de ces nouvelles technologies n’est entièrement à l’abri d’un coup de main adverse. Une autre voie est donc possible, celle d’un recours partiel aux réseaux civils. Déjà évoquée auparavant, « l’hybridation est la clef », estime le général Métayer. « En effet il y a une complémentarité à trouver entre les moyens souverains qui garantissent l’indépendance totale de notre système et d’autres moyens nécessaires pour transmettre un gros volume d’informations ».
Véritable laboratoire, le conflit russo-ukrainien génère de précieux enseignement en matière de porosité entre univers militaire et civil. L’usage de la constellation privée Starlink, entre autres, n’est plus seulement circonscrit aux forces ukrainiennes. « Une division américaine qui s’entraînait en Pologne disposait d’outils crypto capables d’emprunter les flux civils en utilisant Starlink, estimant avoir un cryptage suffisamment robuste pour consentir à cette vulnérabilité. Nous avons suggéré de regarder quels sont les opérateurs en Europe capables d’offrir ce genre de service en consentant des risques », indique le général Métayer.
La démarche comporte son lot d’aléas. Pour l’officier français, « en utilisant des canaux civils, on est beaucoup plus sujet aux interceptions, on est vulnérable à certaines perturbations, à des coupures qu’on ne maîtrise pas. Dans un système un peu « saturé » et en utilisant beaucoup de canaux, une hybridation peut être envisagée ».
La réussite de cette bascule vers des canaux civils dépendra de nombreux paramètres, telles que la nature de l’information transmise et la capacité à anticiper l’éventuelle réaction ennemie. « On peut consentir des prises de risque s’agissant d’informations qui, deux heures plus tard, ne présentent plus aucun intérêt et pourraient presque être envoyées sur des réseaux non protégés comme WhatsApp. Si vous avez bougé, deux heures après, vous ne risquez rien. C’est ce que font les Ukrainiens. On apprend beaucoup de la façon dont les Ukrainiens utilisent les systèmes cellulaires », relevait le général Métayer.
Professeur agrégé, docteur habilité en Histoire des relations internationales et stratégiques contemporaine, président de l’Institut français d’analyse stratégique (IFAS), François Géré étudie depuis 1985 les opérations psychologiques (propagande, désinformation). Il a publié une vingtaine d’ouvrages, notamment aux éditions Economica La guerre psychologique (1995), La guerre totale (2001), La pensée stratégique française contemporaine (2017). Membre du Conseil scientifique qui soutient le Diploweb.com
L’information à l’heure d’Internet ouvre de nouvelles possibilités, y compris de manipulation. Il importe de saisir comment les progrès techniques ont renforcé la place de l’information dans notre quotidien et ses enjeux, désinformation comprise. Dans le contexte des élections à venir, tous les citoyens attachés à la démocratie y trouveront matière à réflexion. Porter un regard critique sur les sources et mode de communication est probablement le thème le plus exigeant du programme de spécialité HGGSP de la classe de Première. C’est pourquoi le Diploweb.com donne la parole à un expert à même d’éclairer les enseignants… et leurs élèves. François Géré a signé « Sous l’empire de la désinformation. La parole masquée », Paris, Economica. Propos recueillis par Pierre Verluise, Fondateur du Diploweb.com.
P. Verluise (P. V) : Comment évaluer le rôle d’Internet dans la mondialisation et l’individualisation de l’information ?
En plein développement, l’âge informationnel se caractérise par une double transformation simultanée et étroitement interactive : l’une, la panmédiatisation, est d’ordre psycho-biologique, l’autre, le multimédia, relève de la technique et de l’économie.
La panmédiatisation
Elle questionne les mutations induites par l’avènement de l’âge informationnel sur l’esprit et le corps humain. En quoi, comment et jusqu’à quel point changeons nous ? En effet, la multiplicité des médias disponibles crée un environnement nouveau qui affecte le sujet humain : le rapport au réel ainsi qu’à son apparence, le rapport au temps et enfin, le rapport à soi et à l’autre. Jusqu’à quel point l’attraction grandissante du monde virtuel influe-t-elle sur la psychè, les comportements l’éducation et l’acquisition du savoir ?
La fabrication d’une nouvelle temporalité permet de disposer d’une chronologie décalée et flexible. Entre l’enregistrement et la consultation d’une information s’intercale un temps différé. Grâce à la « retransmission », au podcast par exemple, l’homme peut croire ou espérer maîtriser la gestion de son temps. En est-il modifié et dans quelle mesure ?
Simultanément, des prothèses s’accolent à son corps, se branchent sur ses sens et vont même jusqu’à le pénétrer. Elle comporte des incidences psychologiques sur la nature de l’ego. Faut-il parler de narcissisme exacerbé par un nouvel avatar, le « blog » ? S’il sort de la massification médiatique, l’être humain est-il rendu à sa liberté intellectuelle ? N’est-ce pas, à l’inverse, l’occasion de s’insérer dans des réseaux nouveaux, tout aussi aliénants ? On constate le renforcement de l’appartenance et parfois de la dépendance à l’égard d’un groupe, fondé sur des croyances, des superstitions, des particularismes, régionalismes et autres communautarismes.
L’essor d’un bien de consommation mondial : le multi-média
Une telle transformation ne pourrait s’incarner et développer ses effets sans le concours d’outils techniques, de vecteurs, toujours plus nombreux, divers, séduisants et performants.
L’emploi de ce terme « médias » tend à devenir obsolète en raison de l’extrême hétérogénéité technique et géographique de ce qu’il recouvre. Presse écrite, radio, télévision, cassette audio, cassette-vidéo, photos numériques, caméra embarquée, fichier MP3, Internet produisent chacun des effets propres et font l’objet d’utilisations très différentes selon les pays, les cultures, les classes sociales et les buts poursuivis par les organisations politico-idéologiques.
Ce double phénomène est créateur d’un homme différent non pas au sens génétique du terme mais au niveau sensoriel de son appareil perceptif. Quelles en sont exactement les composantes ? Et les incidences prévisibles dans chacun des moments de l’existence des individus et des sociétés, notamment en ce qui touche à l’affrontement, au rapport entre la paix et la guerre ? Un individu mieux informé, plus confiant en soi, serait-il moins agressif ? Ou bien largement désinformé, plus facilement manipulable, devient-il potentiellement plus incertain, imprévisible et dangereux ? Le développement à grande vitesse des plates-formes et des vecteurs de communication loin d’apporter des réponses satisfaisantes relance le questionnement en créant des problèmes supplémentaires.
P. V. : Quel est le rôle spécifique d’Internet dans l’accompagnement de ces mutations ?
F. G. : Voici déjà longtemps, dans les années 1970, les grands laboratoires de recherche scientifique comme le MIT de Boston, la DARPA du Pentagone ainsi que le CERN de Genève ont recherché des moyens de communication nouveaux correspondant aux possibilités offertes par le développement rapide de l’électro-informatique. La création d’Internet a mis à disposition d’un nombre croissant d’utilisateurs un nouveau vecteur qui, depuis ses origines, s’est voulu une avancée de la libre parole et de la transmission de la connaissance à travers le monde. Ainsi en revient-on à un principe fondamental : un vecteur n’est ni bon ni méchant, tout dépend des finalités qui président à son usage. Néanmoins dans l’âge de l’information Internet, de par ses propriétés remarquables, constitue une « révolution dans la révolution ». La souplesse et la facilité d’emploi, la rapidité de la communication, la formation d’une toile de dimension mondiale (world wide web) en font un outil exceptionnel de propagande et de possible désinformation. Qui pouvait rêver d’un aussi puissant moyen de propagation de rumeurs et de critiques fondées ou non ?
P. V. : En quoi la communication est-elle affectée par Internet ?
F. G : L’irruption rapide d’Internet, son ampleur, sa diversité créent, au regard de l’information une tendance de fond : la « réindividualisation » (réappropriation individuelle) et la « démassification ». Elle va dans le sens du « panmédiatisme » mais aussi de la possible réappropriation par l’individu de l’information par le biais d’une sélection critique, celle de ses goûts (on peut les conditionner) mais aussi celle de ses intérêts, plus difficiles à cerner de l’extérieur. Internet parachève le phénomène déjà perceptible de sortie des médias de masse vers l’information individualisée, ciblée, productrice de rassemblements d’informés ou d’informés qui se fédèrent librement.
Cela affecte notre vie quotidienne à savoir la manière dont nous travaillons, dont nous consommons, dont nous interagissons. Cela touche également les producteurs et les contrôleurs traditionnels de l’information tels que l’Etat, les grands groupes financiers, mais aussi les nouveaux producteurs d’information à savoir les organisations non gouvernementales humanitaires mais parfois radicales et violentes. Reste à savoir qui, de tous ces acteurs, tire le meilleur parti de cette décentralisation portée par une mutation du rapport au temps et à l’espace.
Internet est devenu un outil économique et financier à travers lequel circulent des milliards de dollars. C’est donc un moyen de spéculation et bien évidemment de manœuvres de désinformation économique. C’est aussi une forme de dépendance considérable des individus dans leur vie privée, dans leur existence professionnelle. Internet n’est pas encore à la disposition de tout le monde : de fortes disparités géographiques et sociales persistent. Les plus défavorisés pourraient se trouver écartés de cette chance et retomber dans la misère particulière des laissés pour compte de l’âge de l’information.
Mais c’est aussi un théâtre d’affrontement : un espace où l’on espère gagner et risque de perdre et pas seulement de l’argent. Est mise en jeu l’influence sur l’état des cœurs et des esprits qui affecteront les comportements et induiront des pressions sur l’autorité politique, donc sur la décision finale.
On comprend le désarroi des appareils d’Etat, des organisations lourdes et des bureaucraties ankylosées face à ce déferlement d’inconvénients pour leur discours officiel mais aussi d’opportunités qu’ils savent encore mal exploiter. Ce n’est certes pas un hasard si Internet a été immédiatement utilisé par les organisations non gouvernementales, humanitaires ou violentes, afin de diffuser leurs messages. L’utilisation d’Internet est presqu’immédiatement familière aux organisations militantes –indépendamment de leurs objectifs- car elle correspond aux techniques de la guérilla : concentration soudaine, surprise, action, disparition, réapparition, changement de terrain (de thèmes). Internet permet de créer des forums temporaires qui font leur œuvre dans les esprits avant même qu’il soit possible de vérifier la véracité de l’information. Les journalistes sont également pris de vitesse et doivent suivre, n’arrivant que trop tard pour attester de l’existence du fait ou constater son caractère fictif.
Sur les forums, à travers les « chats », dans les commentaires sur les « blogs » se livre une étrange bataille, nouvelle en ses formes bien que traditionnelle en sa nature. La nouveauté profonde tient à ce que le traditionnel s’insère dans un environnement différent qui valorise et amplifie cette intervention. Hier, propagande et contre propagande se développaient en « contre » mais en parallèle, s’interpellant sans se rencontrer directement. Caricaturons : s’il y avait rencontre entre distributeurs de tracts ou colleurs d’affiches, les adversaires passaient directement au pugilat. Aujourd’hui, Internet forme un théâtre d’affrontement virtuel dont l’issue immatérielle détermine le moral des combattants dans les espaces de guerre directe de plus en plus rares et dans les zones grises de violence recourant aux modes d’action dégradés mais bien réels et très opératoires que constituent le terrorisme et la guérilla.
On peut sur de nombreux terrains et dans bien des circonstances très différentes multiplier les exemples qui permettent de constater combien le préjugé de départ pèse sur la capacité à accepter ou refuser l’information et la désinformation. En 2007, durant deux jours, l’économie estonienne fut paralysée par une attaque massive sur Internet qui satura l’ensemble du réseau, rendant impossible toute transaction. Suivit une campagne d’information désinformation pour établir d’où provenait l’agression, le gouvernement estonien accusant la Russie qui bien évidemment répliqua en retournant ces accusations comme un regain de provocation de la part de Tallin dans un contexte diplomatique fort tendu.
MM. Ben Laden et Zawahiri diffusent leurs messages via Internet, même s’ils ne négligent pas le transfert de la bonne vieille bande vidéo (voici encore une vérification de l’axiome : un medium n’en supprime jamais un autre).
Depuis 2008 l’Afghanistan voit se développer sur Internet une guerre de l’information-communication. Les Talibans sont capables de déverser un flot d’informations tantôt exactes, tantôt absolument fausses, essentiellement dirigées vers les pays de l’OTAN mieux dotés en Internet que les guerriers du Waziristan. Il suffit d’implanter le germe de la discorde auprès d’internautes de pays où l’on doute sérieusement de la nécessité de cette intervention militaire.
Mais il existe aussi d’innombrables rumeurs sur l’espionnage de la « toile » par le Pentagone, par le réseau Echelon, par tous les services secrets. En 1998, Bill Gates fut accusé de collusion avec la National Security Agency (NSA), responsable de toutes les écoutes électroniques, tout simplement parce que les logiciels édités par Microsoft sont vendus à des utilisateurs qui ignorent les conditions de fabrication du produit alors que les services américains en auraient été informés. Un monopole s’est constitué grâce au contrôle des noms de domaines (DNS) par une sorte d’annuaire qui enregistre les identités des accédants.
Finalement les seuls à avoir osé défier le monopole américain sur l’Internet sont les Chinois en s’affranchissant du DNS américain. Pékin a créé à grands frais un système à deux étages qui permet l’accès dans la représentation par idéogrammes mais qui contrôle l’accès et institue de ce fait une remarquable censure selon que l’internaute est privé des informations qui circulent en dehors du système de reconnaissance des identités. C’est aussi une forme de repérage des tentatives pour tourner le système. Cet ensemble de dispositions porte le nom de « bouclier doré ».
P. V. : Quel rôle jouent les réseaux sociaux ?
F. G : Désormais incontournables, ils ont démultiplié la quantité de communication au détriment de la qualité de l’information. La quantité de messages s’en est trouvée augmentée à l’échelle de l’humanité en fonction de la vitesse de l’émission-réception. Or, quels que soient les immenses bienfaits économiques et culturels de ce saut quantitatif, les effets négatifs sont apparus, qui contribuent à tempérer sérieusement l’optimisme.
En pensant pouvoir s’affranchir des médias de masse, notamment de la télévision, qui imposaient l‘information, on a voulu et espéré créer, chacun pour soi, et avec son réseau particulier de correspondants familiers, une information autonome, fiable et satisfaisante. Or les réseaux sociaux ont démultiplié la quantité de communication au détriment de la qualité de l’information. Tout en créant l’illusion de la liberté individuelle, en flattant l’ego (à cet égard, le selfie constitue un avatar caricatural de cette involution), ils ont provoqué une grégarisation aliénante favorisée par l’appât du gain. De fait, Facebook, par le filtrage, regroupe les personnes qui partagent les mêmes opinions. Ils communiquent entre eux sans égard pour ceux qui pensent différemment. Il n’y a donc aucun dialogue, aucune confrontation d’idées mais une juxtaposition temporaire de groupes d’opinion parallèles et de bulles de croyances enfermées sur elles-mêmes. On ne partage pas l’information ; on se conforte dans ses croyances en construisant un communautarisme informationnel. Ces nouvelles sectes, ne recevant que les informations qui les satisfont, abandonnent tout esprit critique et toute velléité de vérification de l’authenticité. Elles sont particulièrement réceptives à la propagande et réceptives à la désinformation.
P. V. : Quel est le rôle actuel de la propagande et de la désinformation ?
F. G : Depuis la fin de la Seconde Guerre mondiale, la propagande a mauvaise réputation. L’usage qui en a été fait par le fascisme et le nazisme explique le rejet d’une activité très ancienne, longtemps considérée comme légitime. La propagation de la foi constitue pour de nombreuses religions une mission pour les prédicateurs. L’histoire du christianisme sous l’empire romain s’apparente à une formidable entreprise de propagande étonnamment réussie. La raison de la péjoration contemporaine de la propagande tient au fait que les régimes totalitaires ont délibérément confondu information et propagande tandis qu’ils contrôlaient étroitement les sources d’information et interdisaient la diffusion d’informations contradictoires et l’expression d’opinions divergentes.
La propagande accompagne toutes les situations d’affrontement. Elle a joué un rôle éminent durant les deux guerres mondiales. C’est en 1914-1918 qu’apparut l’expression « bourrage de crâne » pour qualifier l’énormité des exagérations de la propagande française en faveur de la guerre. Durant la Guerre froide Voice Of America, Radio Free Europe ou la BBC avaient pour tâche de fournir une information exacte et de promouvoir les valeurs démocratiques du monde libre qui s’opposaient, par nature, à l’idéologie communiste. On peut considérer qu’une des raisons de l’échec des Etats-Unis dans la guerre du Vietnam tient à l’impact de la propagande pacifiste qui rendit le conflit impopulaire notamment parmi les jeunes qui, soumis à la conscription, devaient risquer leur vie dans un conflit dont les buts, mal identifiés, paraissaient illégitimes.
La propagande se divise en trois catégories.
La propagande ouverte dite blanche, dont la source est déclarée, diffuse une information fondée sur les faits et l’analyse créée par des émetteurs identifiables. En ce sens elle ne diffère pas de la presse d’opinion qui affiche clairement sinon son affiliation à un parti politique (ce qui est de plus en plus mal vu) du moins son soutien à un corpus de valeurs (une « ligne » éditoriale) plus ou moins nettement défini. Même si elle présente les faits avec des inflexions analytiques conformes à un point de vue, elle ne se cache pas. Elle ne cherche pas à tromper mais à influencer l’état d’esprit et les modes de pensée d’une audience déterminée dans un but d’adhésion ou de bienveillance à l’égard de la thèse que l’émetteur cherche à défendre.
La propagande grise dont la source de l’information est indéterminée n’est revendiquée par aucun organisme. Elle est diffusée de manière neutre. C’est une retransmission sans point de vue, sans objection. Elle se rapproche de l’information simple mais aussi de la rumeur.
Enfin la propagande noire qui dissimule sa source ou fabrique une fausse origine. On peut l’assimiler à la désinformation car elle est secrètement préparée, organisée, planifiée et exécutée en vue de produire un effet de déstabilisation psychologique sur une cible considérée comme l’ennemi.
Il existe trois catégories de « cibles » ou de « destinataires »-récepteurs :
. son propre camp dont on veut renforcer les convictions et protéger contre la propagande adverse ; . l’ennemi dont on cherche à saper le moral ; . les « tiers » : neutres, alliés, communauté internationale……que l’on cherche à gagner à sa cause. Le message propagandiste varie en fonction des spécificités de chacune de ces cibles.
Quant à la désinformation, elle s’entend comme l’élaboration et la communication délibérées d’une fausse information soigneusement travestie afin de présenter les apparences de l’authenticité. Elle vise à égarer le jugement du récepteur-cible, à l’inciter à prendre des décisions inappropriées et à l’engager dans des actions contraires à son intérêt. La désinformation, ainsi entendue, a existé de tous temps. Mais elle joue un rôle de plus en plus important à la mesure du développement de l’information et de la multiplication des vecteurs de communication. Le phénomène des informations falsifiées (fake news) a rapidement pris une ampleur considérable en investissant les réseaux sociaux. Il correspond à la dissémination d’une information fausse par les canaux médiatiques (presse, radio, web). Il peut s’agir d’une entreprise délibérée (désinformation) mais aussi d’une honnête erreur ou d’une négligence (mésinformation).
L’essor du phénomène s’explique par la multiplication en très peu de temps des réseaux sociaux (Linkedin, Facebook, You Tube, Twitter et Instagram ont vu le jour entre 2003 et 2010), et la puissance des moteurs de recherche (Google). En intensifiant la circulation de l’information, ils ont favorisé la diffusion de la propagande et de la désinformation. Ils présentent quatre propriétés majeures d’un grand intérêt pour le désinformateur :
. l’anonymat de la source ; . l’accès à une audience illimitée (1 milliard d’utilisateurs de Facebook en une journée) ; . un faible coût technologique ; . la possibilité d’une dénégation plausible. Une page facebook est perçue comme un divertissement par les utilisateurs et une source de revenus pour les annonceurs des nombreuses publicités. Malheureusement, ces pages sont truffées de fausses informations. Une enquête du Monde a montré que sur une centaine de pages on relevait 233 messages renvoyant à une fausse information.
L’invasion des réseaux sociaux par les informations falsifiées, aggravée par l’appropriation illégale des données de la vie privée prend la forme de véritables campagnes visant à tromper l’opinion et à fausser le fonctionnement normal des élections. Certains Etats utilisent ces vecteurs à des fins d’ingérence dans la vie politique. En 2016, le referendum britannique sur le Brexit et les élections présidentielles américaines ont été gravement polluées par l’injection de rumeurs mensongères et de calomnies distillées par des officines masquées pour fausser l’esprit des électeurs.
Ainsi, confronté à la prolifération croissante de messages truqués, incertains, invérifiables, le citoyen est frappé de désarroi et parfois sombre dans la mécréance. Il finit par douter de la vérité, de l’objectivité et, même, de la réalité. Afin d’éviter cette corruption des valeurs fondamentales des sociétés démocratiques, mais aussi la corrosion de toute connaissance scientifique, il importe d’éduquer le citoyen en sorte qu’il prenne en main avec un esprit critique et quelques outils adaptés, -notamment les systèmes comme Désintox ou Décodex récemment créés par les médias-, son destin au sein de la société de l’information. Il faut désapprendre l’usage étourdi, grégaire et purement ludique des réseaux sociaux pour construire sérieusement, de manière responsable, son information et sa communication : savoir comparer, recouper, vérifier, prendre le temps de la réflexion en s’interrogeant sur la valeur des messages.
P. V. : Assiste-t-on à un essor des théories du complot ?
F. G : Ce terme possède de nombreux synonymes tels que la « conjuration » de Catilina, au premier siècle avant JC, exposée par Salluste… ou la « conspiration » des Egaux de Gracchus Babeuf, en 1798. Le suffixe « com »suggère une entreprise concertée réunissant secrètement plusieurs personnes afin d’agir contre un ennemi et de servir leurs propres intérêts. Souvent ils se lient symboliquement par un serment solennel. Toute entreprise de subversion par un coup d’Etat, par des actions terroristes implique un complot. C’est pourquoi dans sa forme moderne, la loi française entend punir une « association de malfaiteurs liée à une entreprise terroriste ».
Durant les périodes révolutionnaires ou à l’occasion de profonds changements institutionnels, le complot constitue à la fois une réalité et une obsession ainsi qu’une forme de manipulation des opinions et un outil de provocation au service d’une stratégie de prise de pouvoir. Loin d’avoir été épargnés par les tumultes révolutionnaires idéologiques, tant politiques que religieux, les Anglais durant le XVIIème siècle vécurent dans une ambiance de complots. A ce point même qu’une « culture » s’est durablement établie à travers la célébration festive de guy fawk (responsable de la conspiration des poudres ourdie par les Catholiques) par les enfants qui en font une cérémonie de réjouissance, réminiscence légère d’un bûcher.
Toutes les périodes d’incertitude engendrent cette psychose du complot de l’intérieur soutenu par l’étranger hostile. Le révolutionnaire parvenu au pouvoir sans légalité voit l’ennemi partout : complot des aristocrates contre la République française, menées de la CIA… en Iran, au Chili etc.
Des personnalités éminentes ont privilégié le complot comme mode d’action politique. Louis Napoléon Bonaparte passa le plus clair de la première partie de son existence à comploter jusqu’à la réussite du 2 décembre 1851 qui allait faire de lui l’empereur Napoléon III. Le retour au pouvoir du général de Gaulle et le passage de la IVème à la Vème République se sont effectués dans une ambiance de complots entrecroisés.
Quasi éternelles, les théories du complot ont pris une importance croissante dans l’ère informationnelle. Le principe repose sur une explication d’événements exceptionnels et donc mystérieux par le complot soi-disant révélateur de leur vérité cachée. Il s’agit d’une propension persistante du jugement humain, systématiquement entretenue par ces médias grand public surnommés « tabloïds ». Il fournit un déterminisme simpliste, une logique démonstrative à ce qu’il est difficile de comprendre. L’explication par le complot bénéficie d’une vertu d’évidence, rassurante en ce qu’elle désigne un bouc émissaire responsable de tous les maux. De ce fait la recherche pénible de responsabilités partagées et dérangeantes n’a plus lieu d’être. C’est aussi la porte ouverte pour tous les négationnismes. La désinformation en fait donc un de ses procédés ordinaires de prédilection.
Le catalogue des thèses complotistes expose des dizaines de milliers d’ouvrages et des millions de messages électroniques qui se propagent et s’enflent par contagion et rumeur associative. En voici quelques exemples [1] : « Les Juifs et les Franc-maçons se sont acharnés à diviser et affaiblir la France, ce qui explique le désastre de juin 1940.
Les Etats-Unis ont poussé Saddam à envahir le Koweit en 1990 pour se débarrasser de lui.
Le complot sioniste relayé par ses lobbies et la ploutocratie juive investirait le monde entier conformément au Protocole des Sages de Sion, document datant de 1903, reconnu factice et cependant toujours diffusé.
Lady Diana a été assassinée.
L’administration Bush a organisé le 11 septembre 2001.
Hillary Clinton appartient à la secte des Illuminati qui cherche à dominer le monde… » et ainsi de suite.
La difficulté consiste à établir une ligne de partage rigoureuse et fondée entre la réalité d’actions clandestines hostiles et la rumeur qui court sur de telles entreprises. La désinformation procède à de telles manipulations afin de mettre en difficulté la diplomatie des pays adverses voire à déstabiliser des gouvernements ou des hommes politiques. Etre simplement soupçonné de travailler pour la CIA ou d’entretenir des contacts avec le FSB (ex KGB) pèse lourd dans la réputation d’une personnalité.
Le recours systématique à l’accusation de complot caractérise les régimes despotiques ou totalitaires. L’invention de complots de toutes pièces constitue un système de gouvernement afin d’éliminer des personnes ou des factions ayant acquis trop de pouvoir. Ce peut être aussi une façon de manipuler l’opinion notamment en suggérant « la main de l’étranger » comme cause toutes les difficultés en réalité imputables au régime lui-même. La manipulation de l’opinion populaire pour en détourner le mécontentement sur des « boucs émissaires » constitue une manière remarquable de gouvernement par la désinformation permanente. Les services de police fabriquent des preuves, ou obtiennent des aveux par le chantage, la corruption ou la torture. Le NKVD de L. Béria, peu avant la mort de J. Staline (1953) avait fabriqué un « complot des blouses blanches » supposé attenter à la vie des dirigeants soviétiques. Les Juifs et, en général, toutes les petites communautés culturellement allogènes, ont souvent été les cibles de cette désinformation provocatrice de déchaînements de fureur de masse (pogroms). Ce phénomène se retrouve en Asie où, fréquemment, les minorités chinoises se sont vues accuser de comploter afin de s’emparer du pouvoir.
Plus la liberté d’information est bridée, plus l’investigation critique est difficile, plus les théories du complot se développent. Cela dit dans les sociétés où l’information circule à flot, il y a aussi place pour toutes les explications fantaisistes ou délirantes par le complot. On relèvera deux variantes : le canular et le négationnisme.
Le canular est une forme de désinformation en version aimable et humoristique. Le principe est identique qui consiste à faire croire à la réalité d’une fiction, à la vérité d’un mensonge élaboré avec soin de manière à présenter toutes les apparences de ce qu’il n’est pas. On parle de « poisson d’avril », de « hoax ». Le procédé exploite la crédulité mais aussi les préjugés, les superstitions qui créent un milieu favorable à la réussite du canular. La loi du genre veut que le faux soit rapidement avoué à ceux que l’on a abusé. Ce n’était qu’une bonne plaisanterie et la personne trompée s’amuse de sa propre crédulité, bien que parfois elle puisse rire « jaune ». Mais on constate à quel point la frontière est ténue. Orson Welles l’avait expérimenté, dans une émission radiophonique présentant en direct l’invasion des Etats-Unis par les Martiens. L’annonce du canular arriva trop tard pour enrayer la panique. Certains théories complotistes voisinent avec le canular tant l’affirmation est énorme. « Personne n’est jamais allé sur la lune » apparaît comme l’envers de l’invasion des Martiens.
Le négationnisme constitue un travail de réécriture et de réinterprétation d’un passé –qui n’a pas encore précipité en Histoire parce qu’il reste des témoins, des survivants, parce que les archives n’ont pas encore été intégralement ouvertes…. Ou, à l’inverse, à la mort de tous ceux qui pouvaient avoir vécu les faits commence une entreprise de négation dès lors que plus personne ne peut objecter. La démarche consiste, en principe, à rétablir la vérité sur des faits antérieurement présentés de manière erronée involontairement ou non, ou incomplète partielle ou partiale en démontrant que ce qui était tenu pour avéré ne correspond pas à la réalité des faits. Somme toute cette entreprise critique n’a en soi rien de répréhensible, bien au contraire. Toutefois, dans sa version extrême, caricaturale, le négationnisme finit par prétendre que tel ou tel événement n’a pas eu lieu : « les chambres à gaz n’ont pas existé ; personne n’a jamais marché sur la lune, aucun avion n’a touché le Pentagone le 11 septembre 2001 ».
Copyright Mars 2019-Géré-Verluise/Diploweb.com
Publication initiale 24 mars 2019
Plus
François Géré, « Sous l’empire de la désinformation. La parole masquée », Paris, éd. Economica.
4e de couverture
Différente de la propagande, la désinformation se définit comme une entreprise secrète de conception, de fabrication et de diffusion d’un message falsifié dont le but est de tromper le récepteur-cible afin de l’induire en erreur et de le faire agir contre son intérêt. Toutes les époques et tous les régimes en ont fait usage. La guerre froide en a fait un instrument privilégié. Pratiquée par des spécialistes discrets, la désinformation est restée une arme de guerre psychologique originale dont les effets étaient difficilement mesurables. Le succès de la désinformation se mesure à notre ignorance de son action mystérieuse. Nul ne parlait encore de « réalité alternative » ni de fake news. Or en l’espace de quelques années, profitant de l’Internet, de réseaux sociaux prédateurs comme Facebook et des nouvelles plates-formes, la désinformation s’est introduite dans la vie quotidienne des citoyens et dans les relations entre les États. Elle s’insinue dans l’esprit de chacun à coup de tweets en cascade. Elle devient un instrument d’ingérence majeure pour fausser le choix des électeurs. Elle corrompt la démocratie, déstabilise l’équilibre des pouvoirs et mine la crédibilité de l’information. Les notions de réalité, de vérité et de fait authentique sont bousculées. Le soupçon et le doute nourrissent un scepticisme malsain où se dissout le libre arbitre de l’individu responsable. L’empire de la désinformation connaîtra donc des phases d’expansion et de rétraction mais la lutte entre vérité et mensonge, entre lucidité et aveuglement ne cessera jamais. C’est de ce nouveau combat, essentiel pour l’avenir de chacun de nous, que ce livre cherche à rendre compte.
Professeur agrégé, docteur habilité en Histoire des relations internationales et stratégiques contemporaine, président de l’Institut français d’analyse stratégique (IFAS), François Géré étudie depuis 1985 les opérations psychologiques (propagande, désinformation). Il a publié une vingtaine d’ouvrages, notamment aux éditions Economica La guerre psychologique (1995), La guerre totale (2001), La pensée stratégique française contemporaine (2017).
L’enquête de l’Autorité de la concurrence sur le cloud est édifiante
OPINION. C’est en 2022 que l’Autorité de la Concurrence s’est saisie des problèmes concurrentiels supposés de l’informatique en nuage (les clouds). Elle a rendu son rapport qui livre une image pas vraiment en nuance des pratiques des hyperscalers, le nom donné aux plus grands fournisseurs qui bénéficient d’effets d’échelle énormes. Par Jean-Jacques Quisquater, Ecole Polytechnique de Louvain, Université de Louvain, Charles Cuvelliez, Ecole Polytechnique de Bruxelles, Université de Bruxelles, et Bruno Colman, Solvay Business School, Université de Bruxelles.
Les clients des hyperscalers ont beau être des sociétés du CAC40, leur pouvoir de négociation est très limité. Souscrire à un service cloud se fait en ligne, avec une création automatique et une signature à distance du contrat sauf pour les plus gros contrats où un peu de marge reste possible. Ensuite, explique l’Autorité de la concurrence, le fournisseur de cloud se permet parfois de changer le contrat en cours de route.
Mais le problème est ailleurs : les hyperscalers savent bien, au fond d’eux-mêmes, que les clients ne peuvent pas bien anticiper le coût d’utiliser le cloud : les offres sont complexes, la structure des tarifs est peu claire. Les clients ne réalisent pas toujours que les services auxquels ils souscrivent sont complémentaires. Même si cela peut se justifier au niveau technologique, le lien entre tous ces services est peu transparent. Les hyperscalers ont un catalogue varié et très attirant mais les clients qui migrent pour la première fois dans le cloud n’ont aucune visibilité sur les services qu’ils prendront après les produits de base d’un cloud : de la capacité de stockage, de la puissance de calcul. Le volume d’utilisation leur est inconnu aussi. L’achat de services cloud se fait malheureusement un peu à l’aveugle. Il serait plus judicieux pour éviter les mauvaises surprises, dit l’Autorité de concurrence, de ne pas facturer au trafic mais au forfait. Au fond, n’est-ce pas ce qui est proposé quand on souscrit à une offre cloud pour particulier chez Microsoft ?
Crédits cloud et egress fees
Il y a ensuite les crédits cloud que l’Autorité de la concurrence pointe du doigt : c’est un montant à dépenser pendant un temps donné qui vient ensuite en déduction de la facture future. C’est très attirant pour les startups qui y voient la possibilité de se construire une infrastructure IT gratuite dans le cloud pendant quelques mois mais après, quand tout est bien construit et fonctionne, la startup n’a plus d’autre choix que de rester avec ce fournisseur de cloud qu’il ne testait qu’au départ. Ces crédits clouds ne sont pas donc pas une offre limitée d’essai ! Seuls les hyperscalers sont en mesure de proposer systématiquement ces crédit clouds à qui le veut : cela ne représente quasiment rien par rapport à la masse de revenus qu’ils engrangent mais on imagine bien qu’un concurrent ne puisse répliquer les crédits cloud de manière aussi systémique.
Il y a ensuite les egress fees, qui sont facturés quand le client souhaite sortir les données du cloud, soit pour aller chez un concurrent, soit dans une stratégie multi-cloud c’est-à-dire les faire aller et venir dans un autre cloud pour répartir la charge de travail. L’Autorité de la Concurrence appelle ces coûts, une facturation à la sortie. Les hyperscalers ont expliqué que c’était le seul moment où ils pouvaient récupérer les coûts d’utilisation de l’infrastructure du cloud, de l’usage des centres de données, de la fibre, des serveurs. L’Autorité de la concurrence ne l’entend pas ainsi. Ces coûts que les egress fees sont censés récupérer sont des coûts communs à tous les services proposés sur le cloud : pourquoi les facturer alors sur du trafic sortant. En fait, les egress fees peuvent atteindre un tel montant que les clients qui se décideraient à diversifier leur risque de concentration entre plusieurs fournisseurs de cloud y renonceraient bien vite. Ces egress fees, pour l’Autorité de la concurrence, sont un moyen de proposer des prix attractifs au départ, tant qu’on ne quitte pas le cloud. Une stratégie multicloud reste possible mais à condition que ces clouds ne se parlent jamais pour éviter les egress fees.
Il est tout aussi étrange, note l’Autorité de la Concurrence, que les tarifs pour le trafic entrant et le trafic sortant soient différents. Ce qui coûte au fournisseur de cloud, c’est la bande passante utilisée, le débit, pas la direction de ce dernier. En ne facturant quasi rien le trafic entrant, c’est un moyen de capturer le plus possible de données venant du client.
Le couplage du logiciel et du cloud
Les fournisseurs de cloud qui proposent des logiciels ne se privent pas de restreindre leur utilisation dans des clouds concurrents (comme Office même si Windows y a mis récemment fin ou les serveurs Windows ou Oracle qui interdit carrément l’utilisation de ses produits ailleurs que dans son cloud). Les fournisseurs de cloud menacent même de mener des audits pour vérifier l’adéquation de la licence avec son usage dans le « bon » cloud ou non.
La tendance des fournisseurs de logiciels à faire évoluer leur offre de logiciel vers des SaaS (c’est-à-dire accéder à distance plutôt que de l’installer sur ses propres serveurs) est aussi fortement critiquée par l’Autorité de concurrence. Non, ce n’est pas toujours pour des raisons d’efficacité que cette évolution est proposée : on présente le SaaS comme une opportunité d’avoir en permanence accès à la dernière version du logiciel et de ne pas devoir installer des correctifs soi-même : le fournisseur s’en occupe. Certes, mais la dépendance à ce dernier s’en trouve augmentée : on passe à une offre par abonnement plutôt qu’un achat unique de la licence. En cas de rupture de contrat avec le fournisseur, l’accès au SaaS est bloqué alors qu’avec un logiciel qui tourne sur ses propres serveurs, rien n’empêche de continuer à l’utiliser. Le client en est propriétaire et peut continuer à le faire tourner (même si ce n’est pas sain de continuer à utiliser un logiciel qui ne sera plus mis à jour).
Migrer vers un autre cloud reste une gageure : les hyperscalers ont beau expliquer que les offres IaaS (infrastructure as a service) sont des services de base : de la capacité de stockage, de la puissance de calcul aisément transposable d’un fournisseur à l’autre sauf que la version du système d’exploitation peut varier d’un cloud à l’autre tout comme les correctifs déjà installés chez l’un et pas chez l’autre, le type de serveur qui peut tourner chez l’un et pas l’autre.
Interopérabilité totale entre clouds
Si on passe au PaaS (Platform as a Service), la situation empire car cette offre est très spécifique au vendeur puisqu’il va à juste titre proposer des services à valeur ajoutée qui feront la différence avec le voisin quand le client utilise le cloud pour y faire des développements. Ce n’est pas l’open source de Kubernetes qui fera la différence ni même Terraform avec sa promesse de porter d’un cloud à l’autre son code. Leur pénétration est trop faible. Quand un client doit passer d’un cloud à l’autre, il doit adapter un minimum ses codes applicatifs via le refactoring ou même le rendre natif au cloud (replatorming). Une fois ce développement fait, passer à un cloud concurrent demanderait à nouveau cet effort. Une interopérabilité totale entre clouds nécessiterait de mettre des ponts entre nouveaux et anciens services d’un cloud et de l’autre, ce qui peut présenter des trous de sécurité. Soit.
Il y a aussi des barrières volontaires pour l’interopérabilité qu’introduisent les fournisseurs de clouds. Ce sont par exemple des standards fermés pour les logiciels utilisés par les hyperscalers et l’imposition d’une distance délibérée avec des standards ouverts afin de limiter l’interopérabilité avec les services d’autres fournisseurs. Il y aurait des pratiques d’hyperscalers, notamment AWS et Microsoft, qui limitent l’interopérabilité de leurs services en ne partageant pas ouvertement des informations telles que les interfaces de programmation d’applications (jusqu’à être non disponibles aux tiers) ou en combinant open source et normes propriétaires.
Et quoi de plus attirant qu’un accès à Google Maps ou Google Search via des interfaces de programmation propriétaires, offerts quasiment gratuitement à qui développera un service dans son cloud.
Enfin, quoique le problème n’est pas encore présent, l‘Autorité de concurrence se méfie des fournisseurs de cloud qui ont aussi des places de marché qu’ils peuvent imposer à leur client pour capturer tous les services de ce dernier.
Le droit de la concurrence pourra -t-il faire quelque chose pour remédier à ces caveat ? Ou faudra-t-il une régulation qui impose interopérabilité et portabilité entre clouds. A moins que les couches intermédiaires logicielles qui rendent invisible la tuyauterie sous-jacente de chaque cloud soient la solution.
La nouvelle Loi de programmation militaire 2024-2030 engage résolument les armées françaises dans la voie de la haute intensité. Ce terme continue cependant d’être sujet à débat et source de confusion au sein de la communauté de défense.
Une définition stricte de la notion est donc nécessaire afin de mieux en comprendre la portée et les implications pour la France. Sur le plan militaire, la haute intensité renvoie d’abord à un type d’engagement déployant un haut niveau d’énergie cinétique dans un espace et une durée limités. À ce facteur énergétique, s’ajoutent le niveau de sophistication technologique des équipements (intensité en capital) et la létalité qui résulte de ces deux éléments. Émerge ainsi une notion de haute intensité capacitaire qui s’articule autour du triptyque énergie-technologielétalité.
Cette intensité capacitaire doit être distinguée de l’intensité politique, ou virulence d’un conflit armé, laquelle dépend avant tout des intérêts en jeu. Lorsque ceux-ci sont très élevés pour un belligérant, le conflit prend pour ce de rnier les aspects d’une guerre majeure, mettant en jeu sa survie. À l’inverse, la mise en jeu d’intérêts réels mais non existentiels se traduit par des formes de guerre limitée. Si l’histoire militaire offre des exemples de conflits où haute intensité politique et militaire se combinent, elle montre aussi des cas de guerres limitées à haute intensité capacitaire. C’est cette configuration qui paraît la plus pertinente pour la France où la dissuasion nucléaire prémunit en principe de toute menace contre les intérêts vitaux de la nation.
Il existe donc une large gamme de scénarios situés en deçà des intérêts vitaux mais au-delà de l’horizon capacitaire et opérationnel des trois dernières décennies, marquées avant tout par la gestion de crise et dans la perspective desquelles s’est construit le format des armées françaises. Solidarité stratégique dans le cadre de l’alliance atlantique ou d’accords de défense, confrontation avec une puissance grande ou moyenne sur des espaces périphériques, affrontement avec un « proxy », acteur tiers soutenu par un État-puissance ou encore confrontation dans des espaces communs isolés (haute mer, espace exo atmosphérique, cyber, fonds marins, etc.) sont autant d’hypothèses à prendre en compte qui relèveraient de la haute intensité capacitaire.
Haute intensité : quels défis pour les armées françaises ?
L’aventure d’Ariane 5 avait très mal commencé : lors de son vol inaugural, le 4 juin 1996, le lanceur s’était désintégré à 4000 mètres d’altitude, 39 secondes après son décollage depuis le Centre spatial guyanais [CSG] de Kourou.
« C’est la perte totale des informations de guidage et d’attitude 37 secondes après le démarrage de la séquence d’allumage du moteur principal [30 secondes après le décollage] qui est à l’origine de l’échec d’Ariane 501. Cette perte d’informations est due à des erreurs de spécification et de conception du logiciel du système de référence inertielle », avait conclu la commission d’enquête mise en place après cet incident. Et celle-ci d’ajouter : « Les revues et essais approfondis effectués dans le cadre du programme de développement d’Ariane 5 ne comportaient pas les analyses ou essais adéquats du système de référence inertielle ou du système complet de contrôle de vol qui auraient pu mettre en évidence la défaillance potentielle ».
Par la suite, hormis un échec lors de sa 14e mission en décembre 2002, dû à une défaillance du moteur Vulcain 2, Ariane 5 a enchaîné les succès. Et si elle avait mal débuté, son histoire s’est terminée sur une bonne note.
En effet, pour son 117e et dernier vol, initialement prévu le 16 juin avant d’être reporté de quelques semaines après la découverte d’un défaut sur le système de séparation des propulseurs d’appoint, le lanceur a décollé avec succès du CSG de Kourou, aux environs de minuit [heure de Paris], ce 6 juillet.
Cet ultime vol était crucial pour le programme Syracuse 4, lequel doit donner aux forces françaises des capacités accrues en matière de télécommunications. Un premier satellite – Syracuse 4A – avait été lancé avec succès en octobre 2021. Ne restait donc plus qu’à placer le second – Syracuse 4B – sur une orbite géostationnaire, à 36’000 km d’altitude.
« J’adresse mes vives félicitations aux équipes étatiques et industrielles qui ont œuvré à la réussite de ce lancement. Syracuse 4 est un programme majeur qui contribue à la modernisation de nos capacités spatiales de défense, déterminante pour notre souveraineté et notre indépendance stratégique », a commenté Sébastien Lecornu, le ministre des Armées, après le vol réussi d’Ariane 5.
Cependant, Syracuse 4B a encore du chemin à faire avant d’être déclaré opérationnel. Il sera « qualifié dans neuf mois une fois qu’il aura atteint son orbite géostationnaire et subi une série complète de tests », a en effet rappelé la Direction générale de l’armement [DGA].
Conçus par Thales Alenia Space et à Airbus Defence & Space, les satellites Syracuse 4A et 4B sont dotés de moteurs électriques à plasma, ce qui a permis d’augmenter significativement leur capacité d’emport… et donc leurs performances. En effet, ils offrent un débit en bande X et bande ka militaire de l’ordre de 3 à 4 Gb/s [soit trois fois plus par rapport aux satellites Syracuse 3, ndlr] ainsi qu’une meilleure résistance aux menaces cybernétiques, aux impulsions électromagnétiques et au brouillage. Enfin, ils sont également équipés de moyens de surveillance et ont la capacité de se déplacer pour contrarier une possible agression.
Initialement, le programme Syracuse 4 devait compter trois satellite… Mais Syracuse 4C ne sera jamais lancé, le projet de Loi de programmation militaire [LPM] 2024-30 ayant prévu d’annuler sa réalisation.
« S’agissant des satellites Syracuse 4, les évolutions dans le domaine de l’espace sont très rapides : les grands programmes, c’est très bien. L’agilité du new space, c’est très bien aussi. Nous avons, à une époque, imaginé d’énormes satellites en orbite géostationnaire. Mais les constellations qui évoluent en orbite basse ont aussi des avantages. Les deux sont complémentaires pour assurer l’efficacité et la redondance dont les armées ont besoin », a ainsi récemment fait valoir le général Stéphane Mille, le chef d’état-major de l’armée de l’Air & de l’Espace [CEMAAE], aux députés.
« Mettre tous nos objets sur l’orbite géostationnaire serait à mon sens dangereux. Le temps de latence, c’est-à-dire le temps nécessaire pour transmettre une information à un autre vecteur de la patrouille, est plus important s’il faut monter en orbite géostationnaire puis redescendre. Ce delta […] colossal pour des systèmes comme le SCAF [Système de combat aérien du futur] », a ensuite expliqué le CEMAAE.
Quoi qu’il en soit, le projet de LPM 2024-30 prévoit d’engager le remplacement de Syracuse 4.
« Les moyens de communication seront appuyés par une constellation de connectivité sécurisée et multi-orbites européenne. Le programme Syracuse 5, successeur de Syracuse 4 et constitué d’une nouvelle génération de satellites souverains, sera lancé pendant la présente loi de programmation militaire. Il s’agira d’un modèle de satellite patrimonial, géostationnaire en orbite haute », est-il précisé dans le texte.
Une guerre dans l’Espace pour s’approprier des ressources. Des implants qui permettent de lever des armées performantes rapidement. Voici deux scénarios de fiction mis au point par la Red Team Défense, une cellule de prospective à l’initiative de l’Armée française. Une façon d’anticiper dès aujourd’hui des conflits futurs pouvant provenir des risques technologiques, économiques, environnementaux, ou sociétaux
Nous sommes en 2040, l’espace est devenu en quelques années un nouvel eldorado grâce à un carburant de fusée qui a démocratisé son accès. On vient de collecter des minerais précieux dans les astéroïdes et sur la Lune. Quelques décennies plus tard, cette ruée vers l’espace a engendré des tensions, avec des sabotages, des dénis d’accès entre des consortiums et d’autres puissances mondiales parfois privées. Puis vient l’escalade, la guerre spatiale. Des vaisseaux de combat lourdement armés et propulsés par des réacteurs à fusion nucléaire, des véhicules autonomes, des robots et des drones animés par des IA s’affrontent dans l’espace. Peu d’humains sont impliqués dans cette guerre pour le contrôle des métaux et terres rares, mais le conflit commence à s’approcher de la Terre.
Ce scénario de fiction est l’un des deux imaginés par la Red Team Défense, une équipe constituée de chercheurs en sciences sociales et comportementales, en physique-chimie, en biologie, mais aussi des dessinateurs, des auteurs de science-fiction et des militaires. Elle est pilotée par l’Agence de l’innovation de la défense (AID) avec l’État-major des armées, la Direction générale de l’armement (DGA) et la Direction générale des relations internationales et de la stratégie (DGRIS).
Jeudi dernier, cette Red Team Défense a présenté pour la troisième année consécutive ses scénarios prospectifs. En plus de cette histoire intitulée « La ruée vers l’espace », l’équipe a aussi présenté un autre scénario appelé « Face à l’hydre», dans lequel un implant permet d’assimiler de nouvelles connaissances à toute personne qui en est équipée. C’est justement en distribuant ces implants aux civils que des armées sont générées de façon rapide en leur injectant des savoirs militaires.
Dans les deux cas, ces histoires permettent aux militaires d’aujourd’hui d’aller plus loin dans leurs réflexions face aux futures menaces. Alors évidemment, ces scénarios peuvent sembler farfelus au premier abord, mais ils permettent de faire sortir les militaires de leur zone de confort et les pousser à la créativité pour trouver des possibilités de réponse face à des menaces considérées comme improbables. Il faut savoir que ces deux histoires ne sont en réalité que la partie diffusée au public du programme. Il existe des parties de ces scénarios qui restent classées pour des besoins militaires. Ces deux dernières productions de la Red Team Défense viennent s’ajouter à six autres, imaginées lors des sessions des trois dernières années. Il ne faut pas croire que ces fictions sont prises de façon légère par les militaires. Ils ont déjà constaté que certains éléments des différents travaux ont désormais rejoint la réalité. Alors qu’elles faisaient auparavant sourire, ces productions de la Red Team Défense sont désormais observées avec intérêt par d’autres pays européens.