Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs

Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs

par Laure de ROUCY-ROCHEGONDE, Julien NOCETTI, cités par Elise Vincent dans Le Monde

https://www.ifri.org/fr/espace-media/lifri-medias/strategie-militaire-israelienne-lintelligence-artificielle-service


L’armée se sert de l’IA pour augmenter le nombre de cibles, malgré les dommages collatéraux. Les buts de guerre de l’armée israélienne dans la bande de Gaza sont réaffirmés chaque jour par les autorités : « L’élimination du Hamas et le retour des otages en Israël », comme l’a encore assuré, lundi 4 décembre, le ministre de la défense, Yoav Gallant.

Mais, alors que la trêve entre Israël et le Hamas a pris fin le 1er décembre et que l’armée intensifie désormais ses frappes et son déploiement dans le sud de l’enclave, une série d’enquêtes publiées dans la presse israélienne et britannique depuis le 30 novembre, faisant état d’une plate-forme informatique dotée d’intelligence artificielle à laquelle aurait recours l’armée israélienne pour piloter ses campagnes de bombardements et mener à bien ses objectifs affichés, soulève d’importantes interrogations.

Bien que l’armée israélienne revendique l’usage de cette technologie, la controverse prend de l’ampleur face à l’extension de son offensive à l’ensemble du territoire palestinien et au nombre de victimes – près de 16 000 selon le ministère de la santé administré par le Hamas.

Selon le Guardian et le magazine israélien de gauche +972, qui ont publié ces articles sur la base d’entretiens avec des officiers israéliens en fonctions et d’anciens militaires en désaccord avec la stratégie suivie, la principale plate-forme aujourd’hui utilisée par l’armée est baptisée « Habsora » (« le gospel »). Sur une page de son site Internet, mise en ligne le 2 novembre, l’armée israélienne présente ce logiciel – sans le nommer – comme un système qui « permet d’utiliser des outils automatiques pour produire des cibles à un rythme rapide (…) en améliorant le renseignement (…) avec l’aide de l’intelligence artificielle ». La page est rehaussée d’un titre emphatique : « Une usine à cibles » qui « fonctionne vingt-quatre heures sur vingt-quatre ».

Ces déclarations font directement écho au nombre de frappes et de cibles sur lesquelles l’armée israélienne communique chaque jour depuis le début de la guerre. Le 3 décembre, les autorités militaires ont ainsi indiqué avoir mené « environ 10 000 frappes aériennes » sur Gaza depuis le 7 octobre. Un chiffre jugé colossal par nombre de spécialistes. L’armée israélienne assure également avoir attaqué « 15 000 cibles » durant les trente-cinq premiers jours du conflit, contre 5 000 à 6 000 durant les cinquante et un jours qu’avait duré l’opération « Bordure protectrice », en 2014.

Connue depuis 2021

Avec Habsora, l’armée semble avoir démultiplié le nombre de cibles possibles et « accéléré au maximum le cycle du ciblage », analyse Laure de Roucy-Rochegonde, chercheuse à l’Institut français des relations internationales (IFRI), en référence au temps de latence entre le repérage d’un objectif et la décision de tir. Pour le « Dôme de fer », par exemple, le système qui protège le territoire israélien des menaces aériennes, « le temps laissé aux opérateurs, souvent des jeunes qui font leur service militaire, est d’environ une minute », détaille Mme de Roucy-Rochegonde, autrice d’une thèse soutenue, le 20 novembre, sur la régulation des systèmes d’armes autonomes, intitulée « Heurs et malheurs du contrôle de la force ».

« Les techniques auxquelles a recours Tsahal pour son algorithme apparaissent néanmoins assez classiques. Il n’y a rien de particulièrement nouveau », rappelle encore la chercheuse. Habsora est en effet connue des milieux spécialisés depuis 2021, année où la plate-forme a officiellement été expérimentée pour la première fois par l’armée israélienne, avec d’autres logiciels de ciblage, lors de l’opération militaire « Gardien des murs » contre la bande de Gaza. Comme beaucoup de solutions informatiques développées actuellement par la plupart des armées du monde, l’objectif d’Habsora est d’agréger des masses de données dites « hétérogènes », pouvant provenir à la fois du renseignement humain, spatial, de captation de conversations téléphoniques, ou de simples observations visuelles.

Dans un article publié en 2022 dans Vortex, la revue de l’armée de l’air française, l’une des chercheuses israéliennes les plus réputées dans le domaine des nouvelles technologies militaires, Liran Antebi, présentait ainsi Habsora comme un logiciel qui « génère des recommandations proposées par l’IA pour le personnel chargé de trouver des objectifs ». La chercheuse associée à l’Institut d’études de sécurité nationale, qui dépend de l’université de Tel-Aviv, précisait que le programme avait été développé au sein de l’unité 8 200, l’une des plus en pointe du renseignement israélien, responsable notamment du renseignement d’origine électromagnétique.

Usage inédit

Mais l’usage de l’intelligence artificielle présente bien un caractère inédit dans le cadre de la guerre qui a démarré le 7 octobre entre Israël et le Hamas. L’enclave apparaît comme « un terrain d’expérimentation à grande échelle », souligne Julien Nocetti, chercheur associé à l’IFRI, et spécialiste du cyber et des conflictualités numériques. Habsora s’inscrit « dans la continuité de ce que Tsahal fait depuis des années en traitant de très grandes quantités de données concernant des milliers de Palestiniens à des fins de sécurité intérieure. Mais les logiciels les retraitent aujourd’hui en franchissant un cran supplémentaire », ajoute-t-il.

Selon le magazine +972, l’armée israélienne a ainsi revu l’ensemble de ces critères de ciblages et s’autorise désormais à mener des frappes « sur des résidences où vit un seul membre du Hamas, même s’il s’agit d’agents subalternes » du mouvement. De même, le nombre de victimes collatérales autorisées dans le cadre d’une attaque pour cibler un seul responsable du Hamas serait passé de « dizaines de morts » à « des centaines », d’après +972. Ces choix ont abouti à la destruction d’immeubles entiers pour une seule cible répertoriée, comme l’a montré la frappe sur le camp de réfugiés de Jabaliya, le 31 octobre, qui visait selon l’armée « l’un des dirigeants de l’attaque terroriste du 7 octobre » et a fait 126 morts, selon le collectif Airwars.

Alors que l’intelligence artificielle, présente dans de très nombreux systèmes d’armes aujourd’hui, est d’ordinaire mise en avant par les milieux militaires comme une manière d’avoir une plus grande retenue dans l’usage de la force, car elle permet d’être plus précise dans la frappe, « là c’est précisément l’inverse », reprend Mme de Roucy-Rochegonde. Une approche inhabituelle, qui, au-delà des critiques qu’elle suscite, peut aussi être une manière pour Tsahal, selon la chercheuse, « de revoir la façon de calculer la proportionnalité d’une frappe ciblée, comme le réclame le droit international humanitaire, et en même temps d’essayer de faire accepter une part plus importante de dégâts collatéraux ».

« C’est aussi un message très clair au Hamas. Une façon de dire “on sait tout sur vous et on va tous vous éliminer” », poursuit M. Nocetti, qui y voit la traduction directe de la « fuite en avant » du premier ministre israélien, Benyamin Nétanyahou, deux mois après le choc de l’attaque du 7 octobre, marquée par les défaillances de la stratégie du tout-technologique israélien. « C’est aussi une prise de risque de la part du leadership israélien, qui peut effriter une partie du soutien de la communauté internationale, notamment des Etats-Unis, où la question des dégâts collatéraux prend de plus en plus d’importance », ajoute le chercheur.

Lire l’article sur le site du Monde

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.