Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs

Stratégie militaire israélienne : l’intelligence artificielle au service des bombardements massifs

par Laure de ROUCY-ROCHEGONDE, Julien NOCETTI, cités par Elise Vincent dans Le Monde

https://www.ifri.org/fr/espace-media/lifri-medias/strategie-militaire-israelienne-lintelligence-artificielle-service


L’armée se sert de l’IA pour augmenter le nombre de cibles, malgré les dommages collatéraux. Les buts de guerre de l’armée israélienne dans la bande de Gaza sont réaffirmés chaque jour par les autorités : « L’élimination du Hamas et le retour des otages en Israël », comme l’a encore assuré, lundi 4 décembre, le ministre de la défense, Yoav Gallant.

Mais, alors que la trêve entre Israël et le Hamas a pris fin le 1er décembre et que l’armée intensifie désormais ses frappes et son déploiement dans le sud de l’enclave, une série d’enquêtes publiées dans la presse israélienne et britannique depuis le 30 novembre, faisant état d’une plate-forme informatique dotée d’intelligence artificielle à laquelle aurait recours l’armée israélienne pour piloter ses campagnes de bombardements et mener à bien ses objectifs affichés, soulève d’importantes interrogations.

Bien que l’armée israélienne revendique l’usage de cette technologie, la controverse prend de l’ampleur face à l’extension de son offensive à l’ensemble du territoire palestinien et au nombre de victimes – près de 16 000 selon le ministère de la santé administré par le Hamas.

Selon le Guardian et le magazine israélien de gauche +972, qui ont publié ces articles sur la base d’entretiens avec des officiers israéliens en fonctions et d’anciens militaires en désaccord avec la stratégie suivie, la principale plate-forme aujourd’hui utilisée par l’armée est baptisée « Habsora » (« le gospel »). Sur une page de son site Internet, mise en ligne le 2 novembre, l’armée israélienne présente ce logiciel – sans le nommer – comme un système qui « permet d’utiliser des outils automatiques pour produire des cibles à un rythme rapide (…) en améliorant le renseignement (…) avec l’aide de l’intelligence artificielle ». La page est rehaussée d’un titre emphatique : « Une usine à cibles » qui « fonctionne vingt-quatre heures sur vingt-quatre ».

Ces déclarations font directement écho au nombre de frappes et de cibles sur lesquelles l’armée israélienne communique chaque jour depuis le début de la guerre. Le 3 décembre, les autorités militaires ont ainsi indiqué avoir mené « environ 10 000 frappes aériennes » sur Gaza depuis le 7 octobre. Un chiffre jugé colossal par nombre de spécialistes. L’armée israélienne assure également avoir attaqué « 15 000 cibles » durant les trente-cinq premiers jours du conflit, contre 5 000 à 6 000 durant les cinquante et un jours qu’avait duré l’opération « Bordure protectrice », en 2014.

Connue depuis 2021

Avec Habsora, l’armée semble avoir démultiplié le nombre de cibles possibles et « accéléré au maximum le cycle du ciblage », analyse Laure de Roucy-Rochegonde, chercheuse à l’Institut français des relations internationales (IFRI), en référence au temps de latence entre le repérage d’un objectif et la décision de tir. Pour le « Dôme de fer », par exemple, le système qui protège le territoire israélien des menaces aériennes, « le temps laissé aux opérateurs, souvent des jeunes qui font leur service militaire, est d’environ une minute », détaille Mme de Roucy-Rochegonde, autrice d’une thèse soutenue, le 20 novembre, sur la régulation des systèmes d’armes autonomes, intitulée « Heurs et malheurs du contrôle de la force ».

« Les techniques auxquelles a recours Tsahal pour son algorithme apparaissent néanmoins assez classiques. Il n’y a rien de particulièrement nouveau », rappelle encore la chercheuse. Habsora est en effet connue des milieux spécialisés depuis 2021, année où la plate-forme a officiellement été expérimentée pour la première fois par l’armée israélienne, avec d’autres logiciels de ciblage, lors de l’opération militaire « Gardien des murs » contre la bande de Gaza. Comme beaucoup de solutions informatiques développées actuellement par la plupart des armées du monde, l’objectif d’Habsora est d’agréger des masses de données dites « hétérogènes », pouvant provenir à la fois du renseignement humain, spatial, de captation de conversations téléphoniques, ou de simples observations visuelles.

Dans un article publié en 2022 dans Vortex, la revue de l’armée de l’air française, l’une des chercheuses israéliennes les plus réputées dans le domaine des nouvelles technologies militaires, Liran Antebi, présentait ainsi Habsora comme un logiciel qui « génère des recommandations proposées par l’IA pour le personnel chargé de trouver des objectifs ». La chercheuse associée à l’Institut d’études de sécurité nationale, qui dépend de l’université de Tel-Aviv, précisait que le programme avait été développé au sein de l’unité 8 200, l’une des plus en pointe du renseignement israélien, responsable notamment du renseignement d’origine électromagnétique.

Usage inédit

Mais l’usage de l’intelligence artificielle présente bien un caractère inédit dans le cadre de la guerre qui a démarré le 7 octobre entre Israël et le Hamas. L’enclave apparaît comme « un terrain d’expérimentation à grande échelle », souligne Julien Nocetti, chercheur associé à l’IFRI, et spécialiste du cyber et des conflictualités numériques. Habsora s’inscrit « dans la continuité de ce que Tsahal fait depuis des années en traitant de très grandes quantités de données concernant des milliers de Palestiniens à des fins de sécurité intérieure. Mais les logiciels les retraitent aujourd’hui en franchissant un cran supplémentaire », ajoute-t-il.

Selon le magazine +972, l’armée israélienne a ainsi revu l’ensemble de ces critères de ciblages et s’autorise désormais à mener des frappes « sur des résidences où vit un seul membre du Hamas, même s’il s’agit d’agents subalternes » du mouvement. De même, le nombre de victimes collatérales autorisées dans le cadre d’une attaque pour cibler un seul responsable du Hamas serait passé de « dizaines de morts » à « des centaines », d’après +972. Ces choix ont abouti à la destruction d’immeubles entiers pour une seule cible répertoriée, comme l’a montré la frappe sur le camp de réfugiés de Jabaliya, le 31 octobre, qui visait selon l’armée « l’un des dirigeants de l’attaque terroriste du 7 octobre » et a fait 126 morts, selon le collectif Airwars.

Alors que l’intelligence artificielle, présente dans de très nombreux systèmes d’armes aujourd’hui, est d’ordinaire mise en avant par les milieux militaires comme une manière d’avoir une plus grande retenue dans l’usage de la force, car elle permet d’être plus précise dans la frappe, « là c’est précisément l’inverse », reprend Mme de Roucy-Rochegonde. Une approche inhabituelle, qui, au-delà des critiques qu’elle suscite, peut aussi être une manière pour Tsahal, selon la chercheuse, « de revoir la façon de calculer la proportionnalité d’une frappe ciblée, comme le réclame le droit international humanitaire, et en même temps d’essayer de faire accepter une part plus importante de dégâts collatéraux ».

« C’est aussi un message très clair au Hamas. Une façon de dire “on sait tout sur vous et on va tous vous éliminer” », poursuit M. Nocetti, qui y voit la traduction directe de la « fuite en avant » du premier ministre israélien, Benyamin Nétanyahou, deux mois après le choc de l’attaque du 7 octobre, marquée par les défaillances de la stratégie du tout-technologique israélien. « C’est aussi une prise de risque de la part du leadership israélien, qui peut effriter une partie du soutien de la communauté internationale, notamment des Etats-Unis, où la question des dégâts collatéraux prend de plus en plus d’importance », ajoute le chercheur.

Lire l’article sur le site du Monde

L’intelligence artificielle dans l’industrie de défense en France

L’intelligence artificielle dans l’industrie de défense en France

par Océane Zubeldia (*) – Esprit Surcouf – publié le 1er décembre 2023
Chercheur Domaine Armement et économie de défense
IRSEM

https://espritsurcouf.fr/defense_l-intelligence-artificielle-dans-l-industrie-de-defense-en-france_par_oceane-zubeldia/


« Dans toute opportunité, il y a un danger. »

Emmanuel Chiva, Délégué général pour l’Armement (DGA),
à propos de l’intelligence artificielle

Alors qu’aux États-Unis, l’IA parait instable, comme le montre l’affaire de Sam Altman, ancien PDG licencié d’OpenAi, qui vient de revenir à la tête de l’entreprise, cet article explore les ambitions françaises dans le domaine de l’intelligence artificielle (IA) appliquée à la défense. Il cherche à mettre en lumière la dynamique française et les défis à relever, notamment en matière d’innovation, de réglementation et d’éthique.

À l’occasion du salon Viva Technology (14 au 17 juin 2023), le président de la République a rappelé les ambitions françaises en matière d’intelligence artificielle (IA), à savoir développer un écosystème de talents, diffuser l’IA et la donnée dans l’économie et l’administration, promouvoir un modèle éthique équilibré entre innovations et protection des droits fondamentaux. Depuis 2017, la France s’est engagée dans la voie du développement de l’IA, orientations renforcées par le rapport Villani, « Donner un sens à l’intelligence artificielle, Pour une stratégie nationale et européenne » (8 septembre 2017–8 mars 2018), le rapport parlementaire de l’Assemblée nationale rédigé par Olivier Becht et Thomas Gassilloud, « Les enjeux numériques des armées » (mai 2018) qui a mis en évidence le défi de l’IA comme « un défi pour la R&D et la BITD française ». (cf BITD pour Base industrielle et technologique de défense.)

Un dernier point retient également l’attention : France 2030, qui correspond à un plan d’investissement d’un montant de 54 milliards d’euros sur une durée de cinq ans. Ses objectifs concernent la création de nouvelles filières industrielles et technologiques, le soutien aux acteurs émergents et innovants à fort potentiel (startups et licornes de demain) afin de remédier au retard industriel français. Seules la consolidation et la continuité des actions déjà menées permettront aux entreprises de la BITD françaises de tirer leur épingle du jeu.

La donnée au cœur de la compétition des puissances

Avant d’aborder le cœur du sujet, il est opportun de définir l’intelligence artificielle. De quoi s’agit-il ? Selon le Journal Officiel, elle est le « champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines » (9 décembre 2018). Cette technologie réunit conjointement des capacités de perception, de compréhension et de prise de décision, c’est-à-dire qu’elle reproduit de manière artificielle, comme son nom l’indique, le processus de pensée humain, voire au-delà. Subséquemment, l’IA est devenue un outil incontournable dans notre quotidien et offre de nombreux services (application météorologique à reconnaissance vocale, robot à usage domestique, GPS, etc.). Corrélativement et sans commune mesure, elle concerne également la défense (aide à la décision et à la planification, renseignement, combat collaboratif, robotique, opérations dans le cyberespace, logistique et maintenance).

Le champ d’application de l’IA est donc dual : source de transformations rapides et d’échanges où l’innovation joue un rôle d’accélérateur. Dans cet écosystème spécifique, elle suscite de plus en plus l’intérêt. Ainsi, son essor tient à deux principales raisons : la potentialité quasi illimitée de traitement automatique d’une masse de données dans un temps restreint ainsi qu’une capacité d’apprentissage, et la création d’applications qui touchent une multitude de secteurs. En ce sens, une compétition mondiale a été lancée de manière effrénée où les États-Unis et la Chine imposent leur rythme tandis que l’Europe accuse un certain retard. Toutefois des efforts sont consentis, à noter la date du 30 octobre 2023 qui correspond à la deuxième réunion trilatérale entre la France, l’Allemagne et l’Italie dédiée au développement d’une vision stratégique sur l’IA dans le cadre d’une politique industrielle commune.

La dynamique française

Face à cette course, la France affirme sans détour, dans son discours politique, que pour être souveraine trois points doivent être maitrisés : la convergence des algorithmes, la collecte des données et la capacité de calcul. Dans la pratique, les priorités françaises sont la modernisation de ses activités avec la rénovation de son infrastructure numérique. Elle aura pour perspective soutenir l’accueil de la masse de données et les algorithmes nécessaires au développement de l’IA. Durant l’année 2022, la conduite de cette stratégie s’est matérialisée par la création de 590 startups dédiées à l’IA, et de notamment 16 licornes qui ont généré une levée de plus de 3,2 milliards d’euros (contre 556 millions d’euros en 2018).

.

 

Appliquée à la défense, la supériorité technologique (IA, essaim de drones, quantique, etc.) des armées figure parmi les objectifs de la Loi de programmation militaire 2024-2030. Notamment, il est prévu un financement à hauteur de 10 milliards d’euros pour l’innovation. Dans ce cadre, l’engagement d’un ensemble d’acteurs s’avère essentiel, orientation soutenue par l’Agence innovation de défense (AID), à savoir aussi bien les secteurs industriels (entreprises de la BITD, startups) et académiques (universités, centres de recherche), tout en favorisant l’ouverture et la discussion avec le domaine militaire. L’IA comporte des progrès significatifs qui doivent être exploités, toutefois les potentialités quasi illimitées des technologies de l’IA exigent une plus grande maturité et de fiabilité.

Un développement compétitif et fiable de l’IA

L’intelligence artificielle est souvent assimilée à une sorte de « boîte noire » qui tient à une certaine opacité de la donnée. Plus précisément, la difficulté résulte de la méconnaissance des algorithmes utilisés et de leurs corrélations. La question de la discrimination par la donnée et la menace de voir s’installer des systèmes autoritaires fait également partie des discussions. Ainsi, les critères liés aux données utilisées et à leur qualité, et par extension les biais algorithmiques, constituent un des points faibles de cette technologie. Dans cette perspective, le critère d’explicabilité d’un algorithme, c’est-à-dire la transparence des résultats transmis par l’IA et la bonne compréhension des mécanismes de son apprentissage statistique (de sa création à son utilisation), correspondent aux principaux axes d’effort à fournir. À titre d’exemple, en cas de données erronées, l’algorithme sera inévitablement impacté et les résultats de ce dernier appliqué à une situation réelle risquent par ricochet d’être altérés également.

L’absence de réglementation, les règles de mise en œuvre et les dispositifs constituent des zones grises, notamment au sujet de la responsabilité des concepteurs et celle liée à l’utilisation de données biaisées. Ainsi, la seule compétition et les défis de l’industrie de défense française ne se situent pas uniquement dans le cadre d’une rivalité mondiale. Pour se réaliser, en plus d’être novatrice, elle doit intégrer un cadre juridique inédit ; gage d’autonomie, de souveraineté technologique et de la généralisation future de l’IA. Entre innovation et normes, les entreprises de la BITD sont à même de développer des solutions inédites eu égard aux efforts entrepris et de leur savoir-faire qui ne se fondent pas exclusivement sur la donnée. D’ailleurs, des équipements déjà existants et opérationnels servent de supports aux logiciels de l’IA permettant de prendre un chemin d’évolution plus sûre et progressif.

Un comité français de l’IA

A l’interface des sciences, des techniques et des sciences humaines, l’intelligence artificielle génère des enjeux de toute sorte (opérationnel, maîtrise technologique, souveraineté, autonomisation, juridique, éthique, etc.). De ce fait, de nombreux défis doivent être relevés et les entreprises de la BITD françaises ont à poursuivre les efforts réalisés. Une attention particulière est portée afin que celles-ci ne soient pas écartées de la compétition mondiale avec le risque de perdre leur autonomie.

L’IA est loin d’avoir terminé sa course et elle pourrait constituer dans un horizon très proche une part essentielle des futurs systèmes d’armes. Elles offrent un panel d’application extrêmement large qui intègre aussi bien les intérêts militaires que civils et l’on ne saurait la réduire au simple champ létal. Ces perspectives mettent en avant la nécessité de privilégier la dualité et la coopération entre les différents acteurs pour le développement d’une IA forte et dans le respect d’une communauté de valeurs. A savoir, si la mise en place, par la première Ministre en septembre 2023 d’un comité de l’intelligence artificielle générative (composé d’acteurs des secteurs économique, de recherche, technologique, de recherche, et culturel), permettra dans les prérogatives fixées à 6 mois de consacrer une feuille de route novatrice.


Sources photos : Pixabay

Source photo bandeau : Cliquez ICI

 

(*) Océane Zubeldia, chercheur Domaine Armement et économie de défense, Institut de recherche stratégique de l’Ecole militaire (IRSEM).

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

 

Le sommet de Bletchley Park visait à rassembler les gouvernements mondiaux et les géants du secteur pour débattre de la réglementation de l’IA, dans sa variante générative en particulier. L’objectif affiché consiste notamment à mettre en place un institut dédié, avec une portée mondiale, alors même que les initiatives se multiplient dans le monde, et désormais notamment aux États-Unis. Les organisateurs et Rishi Sunak en premier lieu ont voulu centrer l’agenda sur les risques les plus extrêmes liés aux modèles dits « de frontière » : risques existentiels et de perte de contrôle par le biais de modèles qui s’émanciperaient de l’humain. Nombreux sont pourtant les problèmes à traiter, en premier lieu celui de la fiabilisation bien plus générale des modèles et du potentiel de manipulation tous azimuts, qui occupent les responsables politiques dans le monde.

Un agenda inspiré par la perspective de la Big tech

On peut ainsi voir dans l’organisation de ce sommet un biais qui correspond plutôt à la perspective des géants du secteur, qui ont volontiers répondu présents à l’appel. Ceux-ci développent des modèles massifs, qui, bien que dominant le secteur, ne reposent pas toujours sur des méthodes à la pointe conceptuelle de l’IA. Ainsi, les acteurs de la Big Tech s’affichent volontiers favorables à une volonté de réglementation qui se concentrerait sur les risques apocalyptiques pour l’humanité, venant des innovations de « frontière » et moins sur leurs propres modèles. Il s’agit là de fonder la réglementation sur des systèmes de licences qui viendront aussi ralentir la concurrence d’agents émergents, notamment ceux issus de l’open source, sans tellement entraver l’expansion des acteurs établis.

Les géants sont évidemment plus réticents face aux tentatives de réglementation plus détaillées, qui sont au cœur des discussions politiques dans le monde. Celles-ci ne se focalisent naturellement pas que sur les risques apocalyptiques de la « frontière » technologique, mais aussi sur les failles béantes des modèles existants. Au début de l’été, on voyait ainsi Sam Altman, dans un paradoxe seulement apparent, soutenir avec une certaine emphase, au Congrès américain qui avait pris du retard sur le sujet, l’idée d’une régulation de l’IA, en pointant les risques existentiels, et quelques jours plus tard, menacer l’Europe de la déserter en cas de régulation plus large. Il annonçait quelques jours plus tard une première implantation européenne d’OpenAI au Royaume-Uni.

Fragmentation politique et course à la réglementation

Le gouvernement britannique a affiché la volonté d’impliquer des États très divers, au-delà des lignes de failles géopolitiques, en associant la Chine en particulier. Au-delà de cette voie de concertation géopolitique, se manifeste aussi une volonté consistant à attirer les grands groupes au Royaume-Uni, en ce qui concerne leurs investissements européens. Le symbole lié à Bletchley Park (où l’équipe d’Alan Turing perça le code Enigma) enrobe cette stratégie d’une belle aura historique, face au renforcement de la volonté d’encadrement à Washington et au tropisme bureaucratique qu’a manifesté le Parlement européen. Les États censés contribuer à cet exercice de gouvernance mondial en ont perçu les limites et ont eu tendance à rester sur leur réserve.

Aux États-Unis, l’administration Biden, après avoir tardé, cherche en effet à accélérer le processus d’encadrement et de transparence des risques des modèles, au moyen de décrets. En parallèle, Washington a affiché une certaine distance vis-à-vis de l’initiative de Londres et l’idée d’un institut mondial visant à la régulation de l’IA, privilégiant l’idée d’un organisme national.

En ce qui concerne l’Union européenne, son AI Act, en gestation, a pris les devants, mais présente des failles notables, en particulier en ce qui concerne sa complexité et le fait qu’il a été pensé sur la base de développements antérieurs à l’explosion des modèles de langage depuis 2017. De nombreux gouvernements, notamment français et en allemand, ont commencé à percevoir ce texte comme une menace pour le développement de l’IA en Europe et souhaitent adopter une approche plus flexible et adaptative de la réglementation. Pour autant, cela n’implique pas d’accorder un blanc-seing à la Big tech en renvoyant toute réglementation aux seuls risques existentiels des modèles « de frontière ».

Garantir la sécurité et l’émergence de nouveaux acteurs européens

L’Europe dispose de compétences poussées dans le domaine et d’un considérable vivier d’ingénieurs et de chercheurs qui se lancent aisément dans le développement de modèles d’IA suivant de nombreuses applications. Pour autant le manque de financement ralentit considérablement le rattrapage face aux États-Unis. Cela fait, plus en profondeur, craindre une dépendance de long terme aux modèles développés aux États-Unis. Une réglementation labyrinthique risque de creuser cet écart.

Le secteur de l’IA connaît une explosion du rôle de l’open source qui permet à des acteurs très variés de se lancer dans la course des applications de l’IA et de la réappropriation de modèle. De cette façon, l’Europe peut se positionner de la façon la plus directe. Cela est plus aisé en particulier que de viser à développer entièrement de nouveaux modèles géants ex-nihilo, bien que cet enjeu reste aussi crucial, pour des raisons notamment d’autonomie technologique. L’intérêt de l’Europe est ainsi d’offrir une réglementation lisible, qui s’adapterait aux risques en fonction des développements réels de la technologie, et d’abaisser autant que possible les barrières d’entrée.

Il est essentiel pour toutes les zones économiques que la régulation vienne garantir la sécurité des modèles ainsi que l’émergence de nouveaux acteurs de pointe, plutôt que d’assurer les positions établies des géants du secteur, qui ne constituent pas une garantie de sécurité au vu des failles de leurs propres modèles.

L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle

L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle

 

par Thierry Berthier – revue Conflits – publié le 13 août 2023

https://www.revueconflits.com/lonu-veut-reguler-lintelligence-artificielle-militaire-mais-se-heurte-au-principe-de-realite-concurrentielle/


L’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) a eu lieu le 18 juillet 2023. Le Secrétaire Général des Nations Unies, Antonio Guterres a souligné les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de l’agriculture et de la résolution des grands problèmes environnementaux.

Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui, « l’utilisation malveillante de systèmes d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable ». Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes.

Il faut tout d’abord saluer l’initiative du Conseil de Sécurité et l’organisation de cette réunion inaugurale car les révolutions IA-robotique vont transformer en profondeur l’ensemble des activités humaines. Il est donc important que les grandes puissances et les puissances secondaires puissent échanger librement au sein de l’ONU, et débattre sur les enjeux et les défis de l’IA.

Le volet militaire de l’IA nous fait a priori passer du « côté obscur de la Force ». La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes. Les trois premières puissances militaires (USA, Chine et Russie) ont indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA tout en précisant que ces systèmes devaient rester sous le contrôle humain. Derrière ces premières déclarations, Il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.

1 – Les quatre principes de réalité systémique de l’IA

Concrètement, la déclaration du Secrétaire Général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès technologique au bénéfice des activités humaines, civiles et militaires :

Principe n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.

Principe n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;

Principe n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.

Principe n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.

2 – L’intelligence artificielle comme moteur de la haute intensité du combat

Les applications militaires de l’intelligence artificielle s’inscrivent dans toute la largeur du spectre opérationnel et renforcent les dynamiques de haute intensité au combat

  • Renseignement : collecte, traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille documentaire.
  • Logistique : préparation de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
  • Simulation : simulation de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
  • Conduite des opérations, IA C2 : Aide à la décision pour les centres de commandement et contrôle (IA C2), reporting, tests et validation d’hypothèses de manœuvres, tests d’impact et d’attrition au regard de l’intensité du combat
  • Systèmes robotisés armés : Augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux d’autonomie L0,L1,…L5
  • Cybersécurité et cyberdéfense : Emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
  • PsyOps, opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées pour tromper ou influencer une cible.

3 – Les grands défis de l’IA militaire

La robotisation du champ de bataille, la préservation du sang du soldat humain, la réduction temporelle des toutes les étapes de la boucle OODA [O – Observe (observer), O – Orient (orienter), D – Decide (décider), A – Act (agir)], et la recherche de haute intensité au combat sont des objectifs prioritaires pour toutes les armées du monde. Chacun de ces objectifs s’appuie sur les progrès des sciences et technologies, en particulier sur ceux de l’intelligence artificielle qui apporte l’autonomie, la précision et la vitesse de réaction dans les systèmes. Si les défis de l’IA militaire sont multiples, deux d’entre eux apparaissent désormais comme prioritaires en retour d’expérience notamment de la guerre russo-ukrainienne :

Défi n°1 – l’IA-C2 (Command & Control) : l’IA intégrée au sein du système de commandement permet de prendre en compte l’ensemble des données qui remontent du terrain, du renseignement, des capteurs déployés, des unités à engager ou déjà engagées. L’apport de l’IA réside dans sa capacité à tester des hypothèses de manœuvre, à en mesurer les effets sur l’ennemi et sur ses forces, à évaluer le risque associé à une action militaire. La simulation numérique intégrant de l’apprentissage automatique et de l’apprentissage par renforcement donne la possibilité de jouer une séquence opérationnelle, de modifier ses paramètres, de rejouer la séance et de converger vers une solution optimale pour le chef militaire qui en tient compte dans son arbitrage.

Défi n°2 – l’IA embarquée dans les escadrilles et essaims de robots aéroterrestres : La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition sur les chars et blindés des deux belligérants. Les premières escadrilles de munitions téléopérées navales ont été déployées par l’armée ukrainienne contre les navires russes. Des drones kamikazes sont régulièrement utilisés dans la profondeur par les deux armées. Ainsi, la question de la lutte anti-drones (LAD) devient prioritaire tout en restant techniquement complexe. L’avantage restant à l’attaquant, le défi de la LAD repose avant tout sur les capacités de détection, de suivi et de neutralisation des vecteurs ennemis. L’intelligence artificielle apporte des solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien « anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.

Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de Milliards de dollars) en Chine et aux États-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les Etats-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi. Le Secrétaire Général de l’ONU mesure parfaitement l’importance des enjeux géopolitiques qui accompagnent le développement de la robotique militaire. Il aura par contre toutes les difficultés à obtenir un moratoire ou un encadrement sur ce type d’armes.

La Direction générale de l’armement veut mettre de l’intelligence artificielle dans les opérations aéroportées

La Direction générale de l’armement veut mettre de l’intelligence artificielle dans les opérations aéroportées

 

https://www.opex360.com/2023/07/29/la-direction-generale-de-larmement-veut-mettre-de-lintelligence-artificielle-dans-les-operations-aeroportees/


 

Ce dispositif permet des sauts à partir d’une altitude supérieure à 9’000 mètres et offre la possibilité de parcourir une cinquantaine de kilomètres sous voile, avec une charge de 200 kg [chuteur et équipement compris]. Cela étant, la qualification du SMTCOPS ne portait alors que sur le parachute, l’emport de charge sous gaine et les équipements de sécurité… mais pas sur le système de communication et de navigation ainsi que sur la capacité d’emport de colis autoguidée.

Cela étant, il n’est pas impossible que cette dernière bénéficie à l’avenir d’une technologie reposant sur des algorithmes d’intelligence artificielle [IA] dits « d’Apprentissage par Renforcement ». Tel est, en tout cas, le sens du projet Colibot, qui vient de faire l’objet d’un appel à manifestation d’intérêt lancé par IDEA3, le Pôle innovation de défense de la DGA « Techniques Aéronautiques », dédié à l’aéromobilité.

S’adressant aux entreprises et aux centres de recherche spécialisés, ce projet vise en effet à mettre au point un prototype de « colis autoguidé » par des algorithmes d’Apprentissage par Renforcement [RL pour Reinforcement Learning] ayant la capacité d’effectuer un vol autonome tout en étant évidemment plus performant en précision et douceur de posé que les systèmes actuellement disponibles.

Ce prototype de colis autoguidé reposera sur un boîtier de navigation autonome [BNA] doté d’un « logiciel de vol à base d’IA permettant de manœuvrer un parachute aile d’une surface de voile d’environ 50m² ».

Deux configurations sont prévues. Ainsi, s’agissant de la première, appelée MANPACK, ce BNA sera « placé sur le buste » d’un parachutiste tout en étant « fixé sur son harnais, de sorte à ne pas altérer ses mouvements » afin de permettre une « reprise en main du vol à à tout moment, en cas de vol en perdition ».

Quant à la seconde, appelée PADS, elle prévoit de placer le BNA entre la charge utile et le parachute, au moyen d’un harnais adapté ». Selon la fiche du projet, la masse totale de l’ensemble [c’est à dire le parachute, le BNA et la charge utile] devra être comprise entre 150 et 250 kg.

Cela étant, la DGA explique que le projet Colibot s’inscrit dans une démarche plus large.

« L’augmentation de l’autonomie et des performances des systèmes dans le domaine des drones, de la robotique ou encore des missiles représente un enjeu majeur pour le ministère des Armées », souligne-t-elle. Aussi, poursuit la DGA, « l’Intelligence Artificielle appliquée à la thématique du guidage/contrôle de tels systèmes est perçue comme une piste prometteuse mais nécessite de monter en maturité et d’être évaluée de façon concrète sur des systèmes réels et non seulement en simulation ». D’où le projet Colibot, qui intéresse les forces spéciales… mais aussi l’armée de Terre ainsi que l’armée de l’Air & de l’Espace.

« De par sa facilité à répondre aux contraintes d’expérimentation aérienne et son intérêt opérationnel pour les Forces, le développement d’un prototype de ‘Colis autoguidé’ par des algorithmes RL est un candidat idéal pour expérimenter et progresser dans le domaine de l’IA embarquée », conclut la DGA.

Intelligence artificielle : la guerre des normes est déclarée entre la Chine et les États-Unis

Intelligence artificielle : la guerre des normes est déclarée entre la Chine et les États-Unis


Depuis la Seconde Guerre mondiale et a fortiori au cours de la dernière décennie, le sujet de “l’intelligence artificielle” s’est véritablement imposé comme un enjeu technologique clé, conduisant à une course à l’innovation entre acteurs mondiaux. Mais plus encore que de simplement réveiller l’intérêt des startups, des chercheurs, des fonds d’investissement ou des écrivains de science-fiction, l’IA s’impose aussi comme un véritable enjeu de souveraineté politique et géopolitique à travers une guerre des normes effrénée.

Par le Club Influence de l’AEGE

L’IA : une technologie de rupture au centre d’enjeux mondiaux

Par ses promesses d’avenir, l’intelligence artificielle, éveille l’appétit de grandes puissances désireuses d’obtenir un avantage compétitif sur leurs voisins et sur leurs rivaux : l’IA (et toutes les technologies à son pourtour comme le machine learning par exemple) promet ainsi à ses défenseurs de bénéficier de méthodes de traitement de l’information automatisées, une véritable nécessité à l’heure du big data et de l’infobésité, à une époque où les données n’ont jamais été aussi accessibles, mais pourtant aussi difficiles à traiter et à analyser. Dans ce contexte, obtenir une avance sur le développement de l’IA, c’est potentiellement obtenir un avantage exceptionnel dans la sphère cognitive.

Les grandes puissances intéressées par cette promesse se livrent ainsi une véritable guerre sur cet enjeu : Chine, États-Unis, Union européenne, les puissances s’affrontent dans un champ d’activités où tout reste encore à faire. Et au centre de ce “grand jeu”, de cette lutte pour l’IA, se trouve la normalisation. Les États s’appuient sur leurs entreprises (et vice versa) pour dicter le rythme de cette confrontation à coup de normes, trustant autant que possible les places dans les comités de normalisation comme l’ISO ou l’ETSI, allant parfois jusqu’à recourir à des méthodes mafieuses si ce n’est à des barbouzeries. C’est pour mieux comprendre cette guerre des normes sur le sujet de l’IA que l’Agence française des Normes (AFNOR) a commandé au Club Influence de l’École de Guerre économique un rapport, document qui a servi de base à la rédaction du présent article.

La normalisation : un outil d’influence et de conquête des marchés

Dans ce cadre de guerre entre grands acteurs, la normalisation apparaît en effet comme un axe fondamental pour permettre aux acteurs publics et privés d’imposer leurs intérêts. Méconnue, sous-estimée, souvent mal comprise, la normalisation est pourtant un élément fondamental de toute démarche de souveraineté économique et donc un élément central dans toute guerre économique.

D’une certaine façon, tenir la norme c’est tenir le marché. En effet, la norme est à un marché ou une technologie, ce que les règles de grammaire sont à une langue. La norme permet aux acteurs d’un écosystème économique ou technologique de fonctionner selon des standards communs, interopérables. Or, pour un opérateur économique, être capable d’influencer ou d’écrire les règles du jeu auquel il va jouer est un avantage compétitif substantiel.

 La norme s’impose ainsi comme un outil d’influence géopolitique et commercial : elle n’est pas qu’une contrainte qui viendrait brider la créativité et le développement des entreprises au nom de la protection des consommateurs, elle peut aussi être une arme compétitive redoutable pour verrouiller un marché en sa faveur.

Un exemple permet de se rendre compte de l’importance de la normalisation pour la conquête de marchés technologiques : Le cas du conflit entre la « Type 2 » et la « Type 3 », les prises de recharge des voitures électriques en Europe. Les deux prises s’affrontaient pour devenir la norme officielle des prises de recharge dans l’UE. L’une des prises était défendue par les industriels de l’automobile allemands, qui avaient déjà commencé à déployer cette technologie. L’autre prise était défendue par les industriels français, qui avaient aussi commencé le déploiement de leurs propres prises. Réussir à imposer un standard unique de prise aurait donc permis aux constructeurs allemands d’évincer leurs concurrents français, et vice versa.

Dans les faits, c’est ce qui s’est produit : la prise allemande s’est imposée grâce à d’importants efforts de lobbying et de normalisation et elle est désormais le socle de toutes les voitures électriques et hybrides dans l’UE, un véritable revers pour l’industrie automobile française qui s’est donc lancé sur ce marché avec un retard important et qui a dû réajuster toute une partie de sa production pour s’adapter à cette nouvelle norme.

Ce qui est valable dans cet exemple l’est tout autant dans le cadre de l’IA : les différents acteurs de l’intelligence artificielle peuvent espérer verrouiller le marché en leur faveur et donc prendre une avance de long terme sur leur concurrence, cela en imposant leur vision par les normes qu’ils pourraient faire passer via des comités normatifs comme l’ISO. L’enjeu est donc crucial et explique que des pays comme la Chine et les États-Unis s’en saisissent à bras le corps.

Chine et États-Unis : deux stratégies normatives, un seul gagnant

Dans la véritable guerre économique qui fait rage entre les États-Unis et la Chine, la technologie et l’innovation font bien sûr partie des théâtres d’affrontement majeurs : dans cette veine, l’intelligence artificielle prend de fait une place à la mesure des enjeux de cette rivalité sino-américaine.

Une position de leadership dans l’IA permettrait, en effet, au pouvoir chinois de remplir un certain nombre de ses objectifs :

  • D’abord, l’IA permettrait à la Chine d’enfoncer le dernier clou de sa domination industrielle mondiale totale, en optimisant encore plus son circuit productif et ses réseaux de distribution (notamment en automatisant une partie des transports de son projet de Nouvelles Routes de la Soie) ;
  • Ensuite, l’IA permettrait à l’appareil étatique chinois d’accroître encore son appareil de surveillance et de renseignement, qu’il vise à contrôler sa propre population (ex : reconnaissance faciale) ou à espionner des pays voisins (ex : traitement automatisé des données issues d’écoutes, d’interceptions numériques ou de social listening) ;
  • Enfin, l’IA permettrait à la Chine de grandement moderniser les systèmes d’armement de l’Armée populaire de Libération (APL) et donc de prendre une avance importante sur le grand rival américain en répondant à de nombreuses problématiques de l’Armée populaire de Libération (APL).

Mais bien que l’IA soit au cœur de la stratégie de long terme chinoise, l’Empire du Milieu part avec une importante épine dans le pied dans le secteur des nouvelles technologies : les géants américains de la Silicon Valley, pionniers en matière d’innovation, le sont également sur la normalisation, créant des standards de facto pour tenir les marchés totalement captifs.

Cette domination est quasi-totale dans l’innovation industrielle, le cloud, les réseaux sociaux ou l’IT pure. Mais le PCC cherche à éviter que les entreprises américaines ne reproduisent ce schéma sur le secteur naissant de l’IA. La Chine souhaite donc prendre le contrôle sur ce secteur avec une politique de montée en puissance qui s’illustre par certains succès.

Pour contrecarrer cette hégémonie technologique et normative américaine, Pékin a mis de nombreuses ressources à disposition de ses prétentions dans l’IA : sur la période 2019-2020, ce n’est pas moins de 70 milliards de dollars qui ont été attribués à la recherche dans ce domaine par le gouvernement chinois.

Conséquence directe de ce volontarisme de l’État chinois, en 2019, 6 des 11 “licornes” du secteur mondial de l’IA étaient chinoises. La même année, l’Allen Institute for Artificial Intelligence estimait que la Chine dépasserait bientôt les États-Unis en termes de recherche fondamentale sur l’IA : d’ici 2025, le top 1% des articles universitaires sur l’IA sera à majorité composée d’articles chinois. Une course universitaire qui se double bien sûr d’une course aux brevets, selon l’Organisation internationale de la Propriété intellectuelle (WIPO), qui indique qu’au cours de la décennie écoulée, les Chinois ont déposé à eux seuls près de 75% des brevets relatifs à l’IA. Enfin, d’après les chiffres de LexisNexis, Tencent et Baidu, deux entreprises chinoises, sont les deux plus grands propriétaires de brevet sur l’IA, avec en 2021 environ 9600 brevets pour Tencent et 9500 pour Baidu (contre seulement 4000 pour Alphabet par exemple, la maison mère de Google.

Le soutien de l’État chinois à ses grands conglomérats a donc des effets directs très visibles. Mais en plus de ces soutiens aux entreprises et à la recherche, la Chine met en place une véritable offensive normative pour dominer le secteur de l’IA de manière plus structurelle. La stratégie normative chinoise dans l’IA repose ainsi sur deux volets :

  • La création de normes de facto sur l’IA, hors de tous comités normatifs, en devenant les premiers à sortir une innovation, en poussant à son adoption massive tout en ne la rendant pas compatible avec d’autres systèmes informatiques ou d’autres IA. Exemple intéressant de cette stratégie, la Chine compte utiliser ses Nouvelles Routes de la Soie pour diffuser ses normes dans l’IA : un accord chinois de “reconnaissance des normes”, signé depuis 2019 par quarante-neuf pays, prévoit ainsi que la Chine rende incompatibles à son infrastructure de transport tous les navires et trains autonomes étrangers qui ne suivent pas les normes d’interopérabilité chinoises.
  • La création de normes officielles sur l’IA, en se représentant massivement dans les comités normatifs afin de proposer des projets de normes favorables aux intérêts chinois. Pour se faire, la Chine peut s’appuyer sur ses géants du numérique, les BHATX (Baïdu, Huawei, Alibaba, Tencent et Xiaomi), afin d’agir en leur nom (et donc au nom de la Chine) au sein des grands organismes de mondialisations internationaux (ex: ISO, IEC) ou régionaux (ex: ETSI) ; cette stratégie est explicitement décrite dans le plan “China Standards 2035”, soit en Français, “Les Normes chinoises en 2035”.

La stratégie chinoise de domination dans l’IA se fonde donc sur l’innovation technologique, la recherche scientifique et la normalisation massive. Cette stratégie est assumée et semble permettre aux Chinois de creuser l’écart avec le pays de l’Oncle Sam. Mais les États-Unis ne sont cependant pas en reste dans cette guerre ouverte. Le député Cédric Villani, dans un rapport de 2018, est ainsi longuement revenu sur la volonté assumée de Washington de s’imposer comme un leader sur le sujet de l’IA, notamment en utilisant comme arme normative l’avantage incontestable que représentent les GAFAM pour l’Amérique. Comme la Chine, les États-Unis utilisent les normes de facto, mais à un degré encore plus important.

Washington soutient en effet les entreprises de la Silicon Valley afin qu’elles utilisent leur avance dans les secteurs technologiques, afin qu’elles portent l’innovation autour de l’IA et afin que ces découvertes s’imposent ensuite comme normes de facto. Un bon exemple de cette normalisation par le fait accompli est le cas de Google avec TenserFlow. Très innovante et en avance par rapport au reste du marché (et notamment par rapport aux technologies chinoises), cette technologie de deep learning a été adoptée dès le départ par la quasi-totalité du marché, devenant la référence sur laquelle s’est construit tout le reste des technologies de deep learning. Celles-ci sont donc obligées d’être interopérables avec cette technologie américaine de Google. Être le premier à pouvoir fournir l’innovation que tout le monde cherchait, c’est s’assurer la maîtrise de tout le marché présent et à venir en créant une norme de fait.

Une fois ces normes de facto mises en place par les GAFAM (c’est à dire une fois la technologie américaine suffisamment diffusée), l’American National Standards Institute (ANSI) inscrit ces normes et les défend dans les organismes normatifs internationaux, tels que l’ISO et l’IEC, mobilisant des moyens considérables de lobbying pour faire adopter ces normes.

Interrogé par le Club Influence de l’AEGE, Patrick Bezombes, Président de la commission de normalisation IA et Big Data à l’Agence française des Normes (AFNOR), confirme ce lobbying très important des GAFAM américains dans les comités normatifs : “les groupes américains font des milliards de bénéfice par an, ils peuvent donc aisément décider d’investir dans une équipe de cent personnes uniquement pour travailler sur la norme et se projeter dans une vision de long terme sur ce sujet”. Une stratégie coûteuse et donc beaucoup moins accessible à des petits acteurs de l’innovation sur l’IA, telles que les entreprises européennes.

Ce qui apparaît donc clairement, c’est que la stratégie chinoise est assez similaire à la stratégie américaine. En utilisant des entreprises monopolistiques afin de tenir, captive l’innovation technologique, mais surtout afin de mettre en place des normes de facto, les entreprises américaines et chinoises n’ont plus qu’à les faire adopter définitivement en mettant les comités de normalisation devant le fait accompli. Cette approche pragmatique se fonde sur un pur rapport de force et n’est possible que parce que Washington, comme Pékin, peuvent s’appuyer sur leur appareil industriel et leurs fleurons dans la recherche fondamentale. Les acteurs de taille plus modestes, comme la France, ne peuvent pas, faute de moyens, copier cette stratégie. Ils se doivent donc d’appréhender cette confrontation normative soit en choisissant un camp, soit en faisant le pari d’une “troisième voie”, forcément moins offensive.

Quelle place pour la France dans cette guerre normative ?

Avec les deux superpuissances en tête de lice dans la course au leadership pour l’IA, la France est peu à peu en train de prendre conscience que si elle veut exister dans cette compétition, elle va devoir s’appuyer sur l’Europe. Après plusieurs années de retard, Paris semble finalement avoir eu le sursaut nécessaire, une prise de conscience qui s’est traduite par l’adoption au niveau national d’une feuille de route visant à faire de la France un hub clé de la course à l’IA, mais également avec la publication en avril 2021 par la Commission européenne, de l’Artificial Intelligence Act (AI Act).

L’AI Act a pour but premier de créer un cadre juridique strict et clair autour de la technologie qu’est l’IA. La nouveauté de ce document réside dans son approche holistique, à la fois purement juridique, mais aussi plus éthique, avec des enjeux philosophiques ou écologiques.

Mais un autre élément de l’AI Act est passé inaperçu alors qu’il était une caractéristique clé de ce document :  le document de la Commission européenne met en place, dans toute l’UE, une classification des technologies IA corrélés à des risques allant de minimal à inacceptable (4 niveaux). Or, cette classification permettra aux instances européennes d’exercer un véritable contrôle de conformité aboutissant pour les technologies acceptées sur le territoire européen à un marquage « IA de confiance », permettant donc d’exclure du marché commun européen toute IA américaine ou chinoise qui ne respecterait pas les standards européens.

Puissances industrielles de premier ordre, Chine et États-Unis basent logiquement leur stratégie normative sur l’innovation techno-industrielle ; en retard sur ce domaine, la France et l’UE ont fait le choix du responsable et de l’éthique afin de fermer leur marché à des acteurs étrangers.

Mais cela ne doit pas empêcher non plus la France d’avoir une approche de normalisation plus offensive, en envoyant ou en encourageant des industriels français à rejoindre les comités de normalisation en tant que project leader sur des sujets précis, mais aussi plus largement en produisant un lobbying au sein des votes de ces comités afin de faire passer des textes favorables aux entreprises et citoyens européens. La France, pays qui a longtemps été en pointe de la recherche et de l’innovation (4e pays au monde en nombre de prix Nobel), doit aussi renouer avec ses origines et encourager plus largement la recherche dans l’IA dans ses établissements d’excellence afin de déposer des brevets qui conduiront à des normes de facto d’origine française.

Et la France ?

Utilisés de manière complémentaire, les brevets et la normalisation permettent à la fois de protéger notre marché et nos technologies, mais aussi de diffuser ces dernières. Ces deux vecteurs alimentent donc le même objectif unique : la compétitivité.

Il faut se rappeler que cette approche à la pointe de l’innovation et de la normalisation, la France a déjà su en tirer profit au cours de son histoire, par exemple pour les piles à combustible, l’hydrogène, les technologies du nucléaire, mais aussi pour la norme “GSM”, qui sert encore de base aujourd’hui à la téléphonie portable mondiale. C’est cette stratégie qui a en partie permis au pays de rester compétitif dans ces domaines hautement disruptifs. Ainsi, l’Hexagone a tout intérêt à passer le pas et à employer des stratégies similaires de normalisation dans l’Intelligence artificielle.

Surtout, la France n’est pas seule dans cette guerre entre deux grandes puissances : Paris dispose d’alliés nombreux qui peuvent agir à ses côtés : en utilisant ses alliés européens comme tremplin et ses partenaires africains comme atout, la France a véritablement les moyens de porter une politique d’encerclement normatif qui permettra de protéger le pré-carré français et européen en termes d’innovation sur l’IA. Ainsi, bien que la France ne dispose pas à ce stade du tissu industriel suffisant pour concurrencer Washington et Pékin en termes de normalisation active, elle peut néanmoins utiliser la normalisation à des fins “défensives”, pour protéger le marché européen des appétits des deux grands empires. Ce protectionnisme économique par la normalisation, en limitant et en conditionnant l’accès au marché (français, mondial et européen selon certains critères), permettra aussi de protéger les jeunes pousses et autres projets innovants qui viendront peut-être concurrencer les GAFAM et autres BAHTX à très long terme.

La France se doit donc de se jeter dans la bataille normative contre ses grands adversaires internationaux, mais cela implique de rallier à sa cause les industriels, les entreprises, les think tanks, les centres de recherche, les chefs d’entreprise et les autres acteurs européens désireux de s’investir dans le champ normatif.