Le chef militaire et l’automatisation du combat (CMF – Dossier 31)
* * *
L’IA peut très schématiquement être définie comme un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision, lui permettant de s’adapter intelligemment aux situations réelles en faisant par exemple des prédictions à partir de données déjà acquises.
Le monde de la défense s’est emparé de ce nouvel outil d’avenir aux capacités encore insoupçonnées qui constitue une véritable rupture stratégique dans l’affrontement de puissance. On prête à Vladimir Poutine cette phrase : « Celui qui deviendra leader en ce domaine, deviendra le maître du monde ».
Les armées françaises ont naturellement choisi d’investir dans l’IA pour bénéficier du potentiel prometteur de cette nouvelle technologie. Pourtant il faut dès à présent fixer les limites de son usage et appréhender la révolution que son introduction va générer dans l’exercice du commandement.
L’IA dans les armées est une réalité incontournable
Le général Schill, chef d’état-major de l’armée de Terre, affirme que « l’IA va irriguer toutes les dimensions de notre travail ». Elle est devenue une réalité tout autant qu’une rupture stratégique dans les conditions d’engagement des armées.
En effet, le déploiement de l’IA sur le champ de bataille doit théoriquement permettre d’acquérir plus facilement la supériorité opérationnelle pour les forces qui en sont dotées, tout en conférant à la Nation qui l’utilise une plus grande autonomie stratégique.
C’est pour cette raison que la France a créé l’Agence Ministérielle de l’Intelligence Artificielle de Défense (AMIAD), dotée de 300 millions d’euros de budget annuel, et confiée à un Ingénieur de l’Armement, polytechnicien. Les ingénieurs de l’AMIAD sont les opérateurs d’un supercalculateur capable de traiter des données classifiées en très grand nombre, le plus puissant d’Europe consacré à l’IA. Avec l’IA de défense, l’idée n’est pas de remplacer les analystes et les officiers de terrain mais de « faire aussi bien et mieux des choses que l’homme fait déjà, et des choses impossibles compte tenu de l’urgence, lorsqu’il n’y a pas assez de temps pour réfléchir face à la multitude de données », expliquait l’amiral Vandier, Major général des armées, lors du récent lancement de l’AMIAD.
« Dans dix à quinze ans, un tiers de l’armée américaine sera robotisé et largement contrôlé par des systèmes dotés de l’IA » déclare le général Mark Milley, ancien chef d’état-major des armées américaines.
Personne ne veut donc passer à côté des évolutions permises par l’IA tellement le champ des possibles est immense, voire infini.
Ainsi, nous sommes passés du drone télépiloté aux essaims de drones aériens, terrestres ou navals gérés par l’IA. Cela permet à un ensemble de dizaines, de centaines, voire de milliers[1] de drones de traiter un objectif de manière coordonnée en les concentrant sur un espace très restreint pour saturer les défenses.
Thalès sait déjà faire voler des essaims d’une dizaine de drones hétérogènes qui accomplissent des missions sous le contrôle d’un opérateur unique.
Des essaims de drones peuvent également servir de camouflage électronique, en émettant des ondes au-dessus d’un poste de commandement.
Les ingénieurs travaillent maintenant sur des algorithmes permettant l’analyse du renseignement, la surveillance automatisée des mouvements ENI, la maintenance prédictive des équipements majeurs.
Même si le potentiel semble infini, il faut dès à présent réfléchir aux limites qu’il faut fixer au développement de l’IA dans les armées.
Les limites éthiques et juridiques qui sont imposées à nos armées résisteront elles à la réalité des conflits futurs et à la course aux armements permise par l’IA ?
Toujours mettre l’homme dans la boucle pour en garder le contrôle est le principe intangible sur le lequel se fonde le développement de l’IA en France pour des raisons éthiques évidentes.
Mais jusqu’à quand ce principe tiendra-t-il face aux développements à venir des capacités de l’IA ?
La France a accepté dans un premier temps de se doter de drones en refusant qu’ils soient armés. Puis très vite, face à la réalité des conflits actuels et du développement de ces armes, elle a fait le choix de s’équiper et d’utiliser des drones armés, tout en refusant les Systèmes d’Armes Létaux Autonomes (SALA).
Face au développement de l’autonomie des systèmes d’armes permis par les progrès de l’IA, la France a choisi de développer les Systèmes d’Armes Létaux Intégrant de l’Autonomie (SALIA), en refusant l’autonomie complète. Le comité d’éthique de la Défense a précisé la notion de SALIA dans son avis du 29 avril 2021 en les définissant comme étant « des systèmes auxquels le commandement consent de déléguer un certain nombre de calculs de décisions, dans un cadre général fixé par l’humain ».
Pourtant, les systèmes d’IA couplés à des robots autonomes sur terre, sur mer et dans les airs seront très vite en mesure d’identifier et détruire des objectifs plus rapidement que jamais, et sur une très vaste échelle. Cette rapidité va modifier l’équilibre entre soldat et software. Aujourd’hui, les armées font intervenir un être humain pour toute décision létale. Dès lors que l’identification et la frappe d’une cible se dérouleront en quelques secondes, l’humain n’aura plus qu’un rôle secondaire. Il ne fera que superviser les opérations sans intervenir dans chaque action. Ainsi, aujourd’hui certains systèmes autonomes ont déjà la capacité de décider de leurs cibles en temps réel en fonction des règles générées par les algorithmes. Ces derniers peuvent même les faire évoluer en cours d’action en fonction des leçons apprises.
Alors quelle attitude adopter face à un adversaire qui ne s’est pas fixé les mêmes règles éthiques que nous, estimant comme Machiavel que « la fin justifie les moyens ». Pourrons-nous toujours préserver l’éthique au détriment de l’efficacité ?
Les armées américaines ont fait le choix d’une IA « adaptative » où, par défaut, ils maintiennent l’homme dans la boucle mais en développant des modes d’autonomie accrue, voire totale, selon les règles éthiques suivies par leurs adversaires potentiels.
Les limites de l’IA découlent aussi du paramétrage des algorithmes qui la régissent. En matière de SALA, cela revient à décider quel est le prix d’une vie humaine dans l’algorithme pour qu’il puisse déterminer le niveau de dommages collatéraux jugé acceptable par rapport à la valeur de la cible traitée. Il faut également définir quelle distinction doit être faite entre combattants et non combattants. Cela pose clairement la question de la détermination dans un algorithme de la proportion acceptable du nombre de civils qui pourraient être sacrifiés pour atteindre un objectif militaire.
Pour fixer des limites à l’IA encore faut-il pouvoir la contrôler tout au long de son processus de création et d’utilisation, notamment les algorithmes qui la structurent.
Pour se faire, l’US Air Force a lancé un appel d’offres pour recruter des officiers de sécurité de l’IA qu’elle veut former pour surveiller le comportement des algorithmes et les réorienter si nécessaire. Mais outre le fait que c’est un métier totalement nouveau à créer, le défi s’annonce très difficile. En effet, comprendre le fonctionnement d’une IA est beaucoup plus complexe que la créer car elle évolue en permanence durant son apprentissage et à chaque utilisation. C’est pourtant une nécessité car l’empoisonnement de l’IA devient une menace réelle avec l’introduction de codes malveillants, de fonctionnalités cachées ou de défauts volontaires.
Cela pose la question de fond : l’IA est-elle contrôlable et si oui comment ?
L’exercice du commandement sera-t-il bouleversé par l’usage de l’IA ?
L’implication de l’IA sur le champ de bataille est de plus en plus importante. Elle bouleverse peu à peu les structures traditionnelles de commandement et de contrôle des états-majors avec le risque que d’un simple outil d’aide à la décision, l’IA devienne le preneur de décision.
En effet, l’IA peut améliorer significativement la qualité des décisions en produisant des analyses de données complexes et des prédictions plus précises, tout en automatisant les tâches décisionnelles routinières. La production des ordres, le choix entre deux modes d’actions (MA), leur confrontation avec les modes d’actions de l’ennemi (ME), tout cela peut être confié à la machine en automatisant le travail de nombreuses cellules d’un état-major opérationnel. L’intuition du chef, sa fameuse intention qui constitue souvent l’esprit de la mission auront-elles encore leur place dans le processus décisionnel et la production d’ordres d’opérations ?
Plus que jamais, un équilibre doit être trouvé entre l’apport indéniable de l’IA dans l’analyse et la synthèse rapides et pertinentes de données de plus en plus nombreuses, la présentation de solutions possibles et la prise de la décision finale qui engage la responsabilité du chef militaire et doit lui revenir. Ne serait-ce que parce qu’il est comptable de la vie de ses hommes devant leurs familles et leurs frères d’armes contrairement à la machine et ses concepteurs.
Il faut donc redéfinir la place pour le chef face à la réactivité accrue des machines en réussissant à préserver l’intégrité et surtout la cohérence d’une chaine de commandement mêlant des machines et des hommes.
L’introduction accrue de l’IA dans le processus de décision pose aussi la question de la responsabilisation. En effet, la responsabilité se retrouve diluée dans une chaine de commandement allant de l’ingénieur qui a conçu l’algorithme jusqu’à l’opérateur qui active le mode autonome, en passant par le responsable politique qui a commandé ces armes et par les officiers qui en ont ordonné l’usage. Il sera très difficile de déterminer la part de responsabilités de chacun et il y a fort à parier que, comme souvent, le chef militaire en bout de chaine, à la tête des opérations, soit considéré comme le premier et seul responsable.
Comme l’IA s’impose de manière incontournable dans le processus de décision, dans l’élaboration des ordres, dans la gestion des données et des équipements du champ de bataille, elle doit être enseignée dans toutes les écoles de formation. Elle doit être suffisamment vulgarisée pour que chaque acteur du champ de bataille, du soldat au général, en comprenne, à son niveau de responsabilités, les enjeux, les risques, les forces et les faiblesses.
Il faut éviter que les systèmes embarquant de l’IA à tous les niveaux de la chaine de commandement ne finissent par transformer les officiers conduisant les opérations en de simples opérateurs spécialisés, se reposant aveuglément sur les conclusions de la machine. Les chefs doivent particulièrement être formés à l’utilisation d’outils pilotés par l’IA pour en connaitre les limites et prendre suffisamment de recul pour ne pas être submergés par le flot d’informations qui leur parvient. Pour autant, l’automatisation du traitement de nombreuses données dans le processus d’élaboration des ordres et de la prise de décision en temps extrêmement rapide, constitue une véritable aide au commandement.
Cependant, il faut échapper à la tentation du tout IA car la menace cyber est suffisamment prégnante pour que les armées se retrouvent parfois engagées sans l’aide d’une IA rendue inutilisable ou inaccessible. Le mode dégradé doit plus que jamais continuer d’être enseigné, car il représente la dernière garantie d’efficacité pour les armées de plus en plus dépendantes du numérique, de la technologie et de l’IA.
Demain si les plus fervents partisans de l’IA ont raison et que presque tout peut être géré par l’IA en une fraction de seconde, il faudra s’assurer que le cerveau humain pourra suivre le rythme imposé par la machine et toujours en comprendre le fonctionnement. C’est à ce prix que le chef militaire, peut espérer conserver sa place dans la boucle décisionnelle.
NOTES :
- En mai 2024, les Américains ont fait décoller 5 293 drones pour un spectacle nocturne.