Selon un rapport parlementaire, le ministère des Armées risque de tomber dans le « piège Microsoft »

Selon un rapport parlementaire, le ministère des Armées risque de tomber dans le « piège Microsoft »

https://www.opex360.com/2024/01/23/selon-un-rapport-parlementaire-le-ministere-des-armees-risque-de-tomber-dans-le-piege-microsoft/


Aussi, faute de solution française [voire européenne], le ministère des Armées s’est donc tourné vers des logiciels américains, notamment ceux fournis par Microsoft. Évidemment, cela n’est pas sans poser quelques interrogations… Surtout quand l’on sait que cette société a collaboré avec la National Security Agency [NSA, renseignement électronique américain] pour renforcer la sécurité de son système d’exploitation Windows.

Quoi qu’il en soit, en 2009, le ministère des Armées notifia à Microsoft un contrat appelé « open bar » par la presse spécialisée car il permettait de puiser dans le catalogue de l’éditeur américain les logiciels utiles contre un prix forfaitaire de 100 euros [hors taxe] par poste de travail. Et dans le cadre d’une procédure opaque puisqu’il n’y avait pas eu d’appel d’offres. Malgré les polémiques qu’il suscita, ce contrat fut reconduit en 2013 et en 2017, pour un montant estimé à 120 millions d’euros.

Cependant, en 2021, selon l’APRIL, l’une des principales associations de promotion et de défense du logiciel libre, le ministère des Armées passe désormais par l’Union des groupements d’achats publics [UGAP] pour « la fourniture de licences et l’exécution de prestations associées aux programmes en volume Microsoft AE, OV, AMO et Adobe ETLA ».

Évidemment, le ministère des Armées prend toutes les précautions possibles pour éviter tout risque d’espionnage. Sa « stratégie consiste […] à miser sur des couches de chiffrement. Certes, le système d’exploitation est édité par Microsoft et n’est donc, de ce fait, pas souverain, mais les données ne peuvent pas être lues grâce au chiffrement. Ainsi, l’architecture de sécurité qui a été pensée pour les terminaux et les centres de données du ministère limite, en cas de compromission, l’accès aux données en clair », expliquent les députés Anne Le Hénanff [Horizons] et Frédéric Mathieu [Nupes/LFI], dans un rapport sur les défis de la cyberdéfense, rédigé dans le cadre d’une « mission flash » de la commission de la Défense.

« Si des données chiffrées ont été captées, le ministère des Armées indique que cela ne sera pas grave car il ne sera pas possible […] de les lire. Microsoft n’a donc, de ce fait, pas accès [à ses] données », insistent-ils.

S’agissant des réseaux classifiés fonctionnant grâce à Microsoft Windows, la solution est encore plus simple : ils ne sont pas connectés à Internet. C’est ainsi le cas au sein du Commandement de la cyberdéfense [COMCYBER]. « L’outil de travail au ministère est le réseau Intradef, lequel est au niveau ‘diffusion restreinte’ et sur lequel rien ne transite en clair. Ainsi, si des données sont interceptées, elles seront illisibles », précisent Mme Le Hénanff et M. Mathieu.

Cela étant, le ministère des Armées utilise aussi de nombreux logiciels fournis par Microsoft.

« Pour obtenir un système informatique [SI] entièrement souverain, il faudrait également une filière souveraine pour les composants matériels et leurs logiciels [processeurs, microcontrôleurs, etc.] ainsi qu’une filière pour les applications logicielles [suite bureautique, navigateurs, etc.]. Aussi, le développement d’un système d’information entièrement souverain paraît inatteignable et d’un coût prohibitif », soulignent les rapporteurs.

« S’agissant […] de Microsoft, son rôle se limite à fournir des logiciels. Les infrastructures sur lesquelles [ceux-ci] tournent sont propriété de l’État et les tâches de configuration et d’administration sont assurées entièrement par des personnels étatiques ou des sociétés de confiance de la Base industrielle et technologique de défense. À date, il n’est pas envisagé d’apporter de changement majeur à cette doctrine », poursuivent-ils.

Seulement, cette pratique pourrait ne pas durer étant donné que Microsoft envisage de commercialiser ses logiciels « en tant que services » [« Software as a Service  » – SaaS]. En clair, les applications ne seraient plus stockés sur le disque dur d’un ordinateur mais hébergées par un serveur distant.

« Ce risque est une véritable épée de Damoclès qui pèse sur la protection des données des services de l’État mais surtout sur notre souveraineté. Cela est dû au fait que le modèle émergent consiste au seul achat de droits d’utilisation de solutions hébergées à l’étranger. D’ailleurs, Microsoft a indiqué que d’ici 2030, voire 2027, il n’y aura plus que des logiciels sous forme de SaaS », a expliqué Mme Le Hénanff, lors de l’examen du rapport en commission. « Le ministère des Armées, compte tenu de ses exigences en matière de sécurité et de souveraineté, ne peut accepter cette situation, et aujourd’hui, il est difficile d’estimer l’ampleur des risques… », a-t-elle continué.

Plus précisément, le « passage de Windows à une logique de service présente le risque d’une réduction graduelle de la capacité du ministère des Armées à exploiter en propre des réseaux basés sur des technologies Microsoft », met en garde le rapport, qui évoque un « piège Microsoft ». Aussi plaide-t-il pour « explorer » les possibilités offertes par les logiciels libres, comme Linux.

Mais, visiblement, la Direction interarmées des réseaux d’infrastructure et des systèmes d’information [DIRISI] est prudente sur ce sujet.

« Contrairement à certaines idées reçues, libre ne veut pas dire gratuit et l’utilisation […] des logiciels libres a un coût. Réduire la dépendance à Microsoft poserait des problèmes de compatibilité, aurait un coût équivalent et serait chronophage en termes de formation et de maintien en compétence des administrateurs », a en effet expliqué la DIRISI aux deux députés. « Cela demanderait surtout de disposer d’un minimum de ressources humaines internes dédiées et expertes sur un large panel de logiciels libres, ce qui semble inaccessible à court ou moyen terme compte tenu des tensions actuelles en termes de ressources humaines dans le domaine du numérique », a-t-elle ajouté.

En outre, si la décision de passer aux logiciels libres devait être prise, il n’est pas certain que « toutes les fonctionnalités actuelles du socle et des systèmes métiers puissent être préservées en l’état ». Et elle « aurait des répercussions sur la capacité du ministère à faire évoluer l’architecture de sécurité de son socle et donc à assurer la sécurité de ce dernier » et serait susceptible de retarder « les travaux nécessaires pour s’assurer de notre interopérabilité avec nos alliés et la capacité de la France à être nation cadre », avancent les rapporteurs.

À noter que, depuis une dizaine d’années, la Gendarmerie nationale a déjà fait le grand saut vers les logiciels libres, avec le développement et la généralisation de « GendBuntu », un système d’exploitation basé sur Ubuntu.

[*] Lire : « Souveraineté technologique française : Abandons et reconquête« , de Maurice Allègre, qui était à la tête de la Délégation générale à l’informatique durant cette période.

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

 

Le sommet de Bletchley Park visait à rassembler les gouvernements mondiaux et les géants du secteur pour débattre de la réglementation de l’IA, dans sa variante générative en particulier. L’objectif affiché consiste notamment à mettre en place un institut dédié, avec une portée mondiale, alors même que les initiatives se multiplient dans le monde, et désormais notamment aux États-Unis. Les organisateurs et Rishi Sunak en premier lieu ont voulu centrer l’agenda sur les risques les plus extrêmes liés aux modèles dits « de frontière » : risques existentiels et de perte de contrôle par le biais de modèles qui s’émanciperaient de l’humain. Nombreux sont pourtant les problèmes à traiter, en premier lieu celui de la fiabilisation bien plus générale des modèles et du potentiel de manipulation tous azimuts, qui occupent les responsables politiques dans le monde.

Un agenda inspiré par la perspective de la Big tech

On peut ainsi voir dans l’organisation de ce sommet un biais qui correspond plutôt à la perspective des géants du secteur, qui ont volontiers répondu présents à l’appel. Ceux-ci développent des modèles massifs, qui, bien que dominant le secteur, ne reposent pas toujours sur des méthodes à la pointe conceptuelle de l’IA. Ainsi, les acteurs de la Big Tech s’affichent volontiers favorables à une volonté de réglementation qui se concentrerait sur les risques apocalyptiques pour l’humanité, venant des innovations de « frontière » et moins sur leurs propres modèles. Il s’agit là de fonder la réglementation sur des systèmes de licences qui viendront aussi ralentir la concurrence d’agents émergents, notamment ceux issus de l’open source, sans tellement entraver l’expansion des acteurs établis.

Les géants sont évidemment plus réticents face aux tentatives de réglementation plus détaillées, qui sont au cœur des discussions politiques dans le monde. Celles-ci ne se focalisent naturellement pas que sur les risques apocalyptiques de la « frontière » technologique, mais aussi sur les failles béantes des modèles existants. Au début de l’été, on voyait ainsi Sam Altman, dans un paradoxe seulement apparent, soutenir avec une certaine emphase, au Congrès américain qui avait pris du retard sur le sujet, l’idée d’une régulation de l’IA, en pointant les risques existentiels, et quelques jours plus tard, menacer l’Europe de la déserter en cas de régulation plus large. Il annonçait quelques jours plus tard une première implantation européenne d’OpenAI au Royaume-Uni.

Fragmentation politique et course à la réglementation

Le gouvernement britannique a affiché la volonté d’impliquer des États très divers, au-delà des lignes de failles géopolitiques, en associant la Chine en particulier. Au-delà de cette voie de concertation géopolitique, se manifeste aussi une volonté consistant à attirer les grands groupes au Royaume-Uni, en ce qui concerne leurs investissements européens. Le symbole lié à Bletchley Park (où l’équipe d’Alan Turing perça le code Enigma) enrobe cette stratégie d’une belle aura historique, face au renforcement de la volonté d’encadrement à Washington et au tropisme bureaucratique qu’a manifesté le Parlement européen. Les États censés contribuer à cet exercice de gouvernance mondial en ont perçu les limites et ont eu tendance à rester sur leur réserve.

Aux États-Unis, l’administration Biden, après avoir tardé, cherche en effet à accélérer le processus d’encadrement et de transparence des risques des modèles, au moyen de décrets. En parallèle, Washington a affiché une certaine distance vis-à-vis de l’initiative de Londres et l’idée d’un institut mondial visant à la régulation de l’IA, privilégiant l’idée d’un organisme national.

En ce qui concerne l’Union européenne, son AI Act, en gestation, a pris les devants, mais présente des failles notables, en particulier en ce qui concerne sa complexité et le fait qu’il a été pensé sur la base de développements antérieurs à l’explosion des modèles de langage depuis 2017. De nombreux gouvernements, notamment français et en allemand, ont commencé à percevoir ce texte comme une menace pour le développement de l’IA en Europe et souhaitent adopter une approche plus flexible et adaptative de la réglementation. Pour autant, cela n’implique pas d’accorder un blanc-seing à la Big tech en renvoyant toute réglementation aux seuls risques existentiels des modèles « de frontière ».

Garantir la sécurité et l’émergence de nouveaux acteurs européens

L’Europe dispose de compétences poussées dans le domaine et d’un considérable vivier d’ingénieurs et de chercheurs qui se lancent aisément dans le développement de modèles d’IA suivant de nombreuses applications. Pour autant le manque de financement ralentit considérablement le rattrapage face aux États-Unis. Cela fait, plus en profondeur, craindre une dépendance de long terme aux modèles développés aux États-Unis. Une réglementation labyrinthique risque de creuser cet écart.

Le secteur de l’IA connaît une explosion du rôle de l’open source qui permet à des acteurs très variés de se lancer dans la course des applications de l’IA et de la réappropriation de modèle. De cette façon, l’Europe peut se positionner de la façon la plus directe. Cela est plus aisé en particulier que de viser à développer entièrement de nouveaux modèles géants ex-nihilo, bien que cet enjeu reste aussi crucial, pour des raisons notamment d’autonomie technologique. L’intérêt de l’Europe est ainsi d’offrir une réglementation lisible, qui s’adapterait aux risques en fonction des développements réels de la technologie, et d’abaisser autant que possible les barrières d’entrée.

Il est essentiel pour toutes les zones économiques que la régulation vienne garantir la sécurité des modèles ainsi que l’émergence de nouveaux acteurs de pointe, plutôt que d’assurer les positions établies des géants du secteur, qui ne constituent pas une garantie de sécurité au vu des failles de leurs propres modèles.

Recherche Internet : la guerre des Intelligences Artificielles

Recherche Internet : la guerre des Intelligences Artificielles

 

 

École de Guerre économique – publié le 3 octbore 2023

https://www.ege.fr/infoguerre/recherche-internet-la-guerre-des-intelligences-artificielles


D’ici 2 ans, il aura été créé plus de données dans le monde que depuis l’origine de l’humanité. Et ceci devrait désormais se répéter toutes les 2 prochaines années environ.

Cette croissance exponentielle de l’information, liée au développement d’Internet et du World Wide Web, ont fait naitre depuis trente ans un besoin stratégique : comment s’orienter dans un univers numérique en explosion ? Comment et où rechercher la bonne information ?

Bien que de premiers pionniers se soient positionnés très tôt sur ce créneau – Altavista, Yahoo, Lycos, etc. – c’est finalement Google qui – à l’aide d’un algorithme ‘PageRank’ révolutionnaire, d’une attention particulière portée à l’expérience utilisateur, et d’un modèle économique basé sur les enchères d’achat de mots clés – s’est imposé à partir des années 2000 comme le leader des moteurs de recherche sur Internet, s’emparant de plus de 90% du marché du « Search », contre environ 3% à son plus proche rival, Bing de Microsoft. Alors que l’on pensait cette position inexpugnable, l’annonce le 30 novembre 2022 de ChatGPT par la start-up OpenAI – puis l’annonce de l’exploitation de cette technologie par Microsoft Bing – a brutalement remis en cause cette position dominante. Cela a conduit le PDG de Google, Sundar Pichai, à mobiliser brusquement l’entreprise autour d’une alerte de type « Code Rouge », et à lancer une contre-offensive informationnelle massive. Une bataille qui s’est jouée avant tout via la communication publique et les médias sur l’échiquier économique d’un marché global du Search de plus de 270 milliards de dollars, mais dont les débordements vers les échiquiers politiques et sociétaux sont en cours. Avec en perspective un impact stratégique : le contrôle de l’accès à l’information sur Internet.

Le contexte de la recherche Internet : une domination écrasante de Google masquant des fragilités sous-jacentes

Quoiqu’il ait subi au fil des années quelques tentatives de concurrence généraliste (avec Microsoft Bing) ou locale (Baidu en Chine, Yandex en Russie, Naver en Corée, Qwant en Europe…) le leadership de Google dans le Search n’avait jamais été remis en cause depuis le début des années 2000.  Autour de principes éthiques forts (« Don’t be evil » de 2004 à 2015 puis « Do the right thing ») et d’une stratégie d’excellence technologique, Google avait réussi à se hisser en deux décennies au rang de 4e capitalisation mondiale, élargissant son offre de la recherche Internet vers les services collaboratifs (Google Workspace), les médias (YouTube), le Cloud computing (Google Cloud), la maison connectée (Nest), la santé (Verily, Calico), la voiture autonome (Waymo), etc. Une stratégie de diversification confirmée en 2015 par la transformation de Google en consortium : « Alphabet ».

Mais des fragilités sous-jacentes 

Si le chiffre d’affaires (CA) du groupe a atteint le chiffre impressionnant de 280 Milliards de dollars en 2022, les 28% de croissance du groupe par an (depuis son introduction en bourse de 2004) ont longtemps masqué des fragilités sous-jacentes. D’abord une dépendance massive de plus de 80% aux revenus publicitaires, entre Google Search, Google Workspace et Youtube. Ceci contre 9% seulement de CA sur le cloud et moins de 1% sur les autres activités (« other bets »), les deux en perte en 2022. Puis des risques constants d’attaque pour abus de position dominante, matérialisés aux USA en 2022. Et enfin une fragmentation lente mais régulière des usages de la recherche sur Internet (recherche de produits sur Amazon.com, recherches de personnes sur Facebook ou LinkedIn, etc.). Des incertitudes qui ne manquent pas de préoccuper depuis longtemps les investisseurs, qui, tout en plébiscitant Google, valorisent aujourd’hui son action à un prix/bénéfice (forward P/E) inférieur d’un tier (20) à ceux d’autres grands leaders du numérique comme Apple (29) ou Microsoft (30).

C’est dans ce contexte de doute diffus que ChatGPT va faire en novembre 2022 une percée stratégique.

Un coup de tonnerre pour l’image de Google Search : l’annonce de ChatGPT

Le 22 novembre 2022, la société OpenAI lance un agent conversationnel – « chatbot », basé sur l’intelligence artificielle générative – permettant de dialoguer avec les internautes et de répondre à leurs questions : ChatGPT. Fondée initialement en 2015 comme laboratoire de recherche à but non lucratif dédié à développer des systèmes d’Intelligence Artificielle Générale (IAG) sûrs et bénéfiques pour l’humanité,  puis renforcée en 2018 par la création d’une filiale commerciale, la société OpenAI n’avait jusque-là pas fait beaucoup parler d’elle hors des cercles spécialisés, si ce n’est à propos de l’implication brève d’Elon Musk, co-fondateur parti en 2018. Avec 1 million d’utilisateurs en 5 jours, le lancement grand public de ChatGPT – développé discrètement depuis 2018 – crée un choc mondial. Il est vrai que la promesse est impressionnante : entrainé sur Internet, avec 175 milliards de paramètres, le chatbot est capable de donner l’illusion des réponses quasi humaines et d’un accès instantané au savoir mondial. Pour les (rares) experts, la technologie sur laquelle il s’appuie n’est pas fondamentalement nouvelle, et il s’agit avant tout d’un beau coup marketing d’OpenAI. Pour le grand public, c’est la révélation. Il suffit de moins de deux mois pour que la barre des 100 millions d’utilisateurs soit franchie, et que le lancement de ChatGPT propulse définitivement l’« Intelligence Artificielle Générative » comme la révolution du 21e siècle, dédiée à avoir selon les analystes « un impact similaire à celui qu’ont eu en leur temps l’invention de la machine à vapeur, de l’électricité, et de l’Internet »

Un impact très négatif pour Google

Si l’usage possible de chatGPT est plus large que celui d’un moteur de recherche (dialogue conversationnel, traduction, résumé de textes, création de code informatique, etc.), la concurrence possible avec Google Search fait rapidement la Une. Qu’attendent effectivement les internautes d’un moteur de recherche ? Ce que propose Google : une liste de liens correspondant à des mots clés ? Ou une réponse précise ? Ces interrogations lancinantes vont rapidement créer un buzz négatif : « ChatGPT va-t-il remplacer Google ? » Est-ce comme le disent certains le « moment iPhone » de la recherche Internet ? Google est-il un « mort en sursis », tout comme les premiers leaders du téléphone mobile – Nokia et BlackBerry – ont été tués par Apple ? Beaucoup d’utilisateurs le proclament sur les réseaux sociaux : “Google is done« , “OpenAI just killed Google », etc. Les tests de comparaison entre ChatGPT et Google fleurissent et sont répercutés sur des sites de presse majeurs.

La presse se fait l’écho d’une « alerte rouge » interne chez Google

Ces interrogations ne pas qu’externes : elles sont aussi et surtout interne à Google. Trois semaines après le lancement de ChatGPT, le New York Times révèle que l’onde de choc a donné lieu à une alerte rouge chez Google. Il apparaît même rapidement que les deux fondateurs de Google, Larry Page et Sergey Brin, qui s’étaient éloigné de la maison mère pour se consacrer aux activités émergentes d’Alphabet ont été rappelés à la rescousse et multiplient les réunions d’urgence.

L’occasion rêvée pour Microsoft de déstabiliser son rival de toujours

C’est à ce moment où Google est affaibli que son principal concurrent dans la recherche Internet, Microsoft Bing, lance une attaque frontale. Le potentiel de ChatGPT n’a pas échappé à Microsoft, qui est un investisseur majeur d’OpenAI depuis 2018. Avec Bing, Microsoft essaye depuis longtemps de concurrencer Google Search, mais sans succès notable jusque-là. Il voit avec la percée de ChatGTP l’occasion de bouleverser enfin les positions établies et va faire une succession d’offensives médiatiques auprès des utilisateurs, des annonceurs, des influenceurs, et des investisseurs.

10 millions de dollars investis dans OpenAI et une intégration à Bing

Le 23 janvier 2023 Microsoft lance l’offensive en annonçant investir 10 milliards de dollars dans OpenAI. Le 7 février, Microsoft annonce l’intégration des technologies d’OpenAI dans ses offres Edge, Microsoft 365, etc. Et elles seront aussi et surtout intégrées à Bing ! Un lancement de « Bing AI » qui sera immédiatement effectif (en préversion sur liste d’attente), avec une adaptation spécifique de la technologie d’OpenAI au Search, et la promesse de « réinventer le futur du Search ». « C’est un nouveau jour pour la recherche Internet » déclare le PDG de Microsoft, Satya Nadella. Au contraire de ChatGPT, le nouveau Bing disposera des dernières informations sur Internet (alors que Chat GPT 3.5 était bâtit sur un corpus de données Internet ne dépassant pas 2021). De plus, il citera ses sources.

 

Bing AI : vers un nouveau paradigme pour la recherche Internet ?

L’annonce de Microsoft est forte : elle prétend bouleverser le paradigme du Search. Va t’elle détrôner Google ? Elle semble avoir un retentissement sensible. Un mois plus tard, dès le 8 mars, Microsoft rapporte que la préversion de Bing AI aurait gagné un million d’utilisateurs et que Bing a atteint 100 millions d’utilisateurs actifs par jour. Signe selon Microsoft d’une nouvelle tendance de fond dans un marché de la recherche Internet assez stable jusque-là… Le 4 mai, Bing AI est enfin disponible à tous, sans liste d’attente, et devient multimédia. Suit une liste continue d’améliorations progressives au cours des mois.

La contre-attaque informationnelle de Google en 4 phases

Si Google travaille depuis longtemps sur l’intelligence artificielle, l’offensive semble le surprendre. C’est d’autant plus paradoxal que le PDG de Google, Sundar Pichai, l’a positionné dès 2016 comme une « AI-first company », dédiée à utiliser l’IA dans tous ses services, et que c’est justement Google Brain, un des deux laboratoires d’IA de Google, qui a été à l’origine des technologies de « Transformers » et de « Large Langage Model » (LLM) dont OpenAI s’est inspiré. Des expérimentations pionnière qu’il hésitait à sortir des cartons, du fait de craintes sur la qualité des résultats et de précédentes polémiques[i]. Ceci combiné à la volonté évidente d’avancer prudemment pour ne pas cannibaliser son modèle économique publicitaire. L’aversion au risque et le dilemme classique du leader ! La valorisation d’Alphabet s’érodant de mois en mois depuis le pic de mi 2021 (-40%) et la pression concurrentielle et réputationnelle s’intensifiant, Google est au pied du mur : il se doit de réagir. Il le fait en 4 phases.

Phase 1 – Lancer une mobilisation des équipes, pilotée par le PDG d’Alphabet lui-même Sundar Pichai, et dont on laisse la presse se faire l’écho

Il faut non seulement remobiliser l’interne. Il faut le faire savoir en externe pour rassurer les investisseurs et les annonceurs. De décembre 2022 à janvier 2023, Google se prépare à la bataille. Il se doute qu’en plus de la menace d’OpenAI, il va être directement attaqué par Microsoft – investisseur d’OpenAI – sur le Search. La communication à la presse est souterraine mais ferme : la réponse de Google va venir bientôt. “Nous continuons de tester nos technologies d’IA en interne pour nous assurer qu’elles soient pleinement efficaces et sûres, et nous sommes impatients de partager bientôt ces expériences en externe” souligne mi-janvier Lily Lin, une porte-parole de Google, au New York Times qui a rapporté l’alerte rouge chez Google. En parallèle, Google gagne du temps en s’assurant que des extensions ChatGPT soient disponibles sur son navigateur Chrome. Un moyen de garder les utilisateurs chez Google.

Phase 2 : contribuer souterrainement à laisser le battage médiatique sur ChatGPT se calmer et le marché souligner ses faiblesses

Comme les analystes le soulignent dans leur classique « cycle du hype » : après le « pic des attentes exagérée » vient vite « l’abîme de la désillusion ». Il est vite clair que, si les capacités de ChatGPT ont d’abord bluffé beaucoup d’utilisateurs, une utilisation régulière vient rapidement les relativiser. Biais, erreurs (poétiquement nommées « hallucinations »), incapacité à discerner information, rumeurs et désinformation, non réplicabilité… : les résultats de ChatGPT sont parfois éblouissants mais souvent aussi immatures. Au point que le PDG d’OpenAI, Sam Altman lui-même, doit rapidement reconnaître qu’il est « prématuré de se fier à ChatGPT pour quoi que ce soit d’important ». Google en est bien conscient. C’est un défaut de tous les LLM. C’est bien pour cela qu’il n’avait jusque-là pas lancé le sien auprès du grand public. OpenAI et Microsoft, tout à leur offensive marketing, se gardaient bien de mentionner ces faiblesses. Google laisse la presse s’en saisir et les experts le souligner. Cela contribue à faire émerger progressivement un relatif consensus médiatique : les chatbots conversationnels sont encore expérimentaux. Ils ne remplaceront pas le « Search » mais le compléteront. Ils sont utiles pour répondre à certaines questions, pour peu que l’on ait conscience de leurs limites. Google Search est de son côté particulièrement efficace pour trouver à peu près tout sur Internet. Bref, le futur est à la conjonction des deux. C’est là où Google va se positionner dans les deux phases suivantes de la contre-attaque.

Phase 3 : Réaffirmer publiquement le leadership de Google en IA, et sa capacité à combiner le plus efficacement « Search » et IA générative

Dès janvier, et alors que la valorisation d’Alphabet est au plus bas depuis son pic de mi 2021 (-40%), Google est prêt pour réaffirmer son avance technologique dans le domaine de l’intelligence artificielle, via une approche médiatique tous azimuts (relations presse, blogs institutionnel…). Mi-Janvier, une série de publications sur son blog viennent rappeler à la presse et au grand public la mission de Google sur l’IA, comment il applique l’IA pour répondre aux enjeux sociétaux, la manière dont il applique l’IA dans ses produits, etc. Cette approche est également particulièrement active auprès des investisseurs, à l’occasion des conférences dédiées aux analystes financiers, comme le 2 février 2023 (Q4 earning call) où le PDG de Google Sundar Pichai focalise l’essentiel de son intervention introductive sur les réalisations de Google en IA et l’imminence d’annonces majeures à ce sujet.

Phase 4 : contre-attaquer via l’annonce portée par le CEO lui-même du propre agent conversationnel de Google : Bard

Le 6 février, c’est le PDG de Google lui-même, Sundar Pichai, qui court circuite l’annonce de Satya Nadella, PDG de Microsoft, prévue le lendemain, pour annoncer que Google lancera son propre chatbot, Bard. Celui-ci est positionné comme un « service d’IA collaboratif » plutôt que comme un moteur de recherche, et sera disponible le 21 mars, tout comme une API ouverte aux développeurs. Il rappelle par ailleurs que c’est Google qui est à l‘origine de la technologie de Transformers et de LLM sur laquelle l’IA générative est basée, et que Google travaille à intégrer ces technologies dans tous ses services, de manière fluide et sûre. Une petite pique à OpenAI, à ses hallucinations, et aux risques règlementaires… Ce sera d’ailleurs une constante de Google : insister sur son approche responsable de l’IA, un discours développé depuis 2018.

Fortement attendu, l’annonce de Bard s’avère pourtant chaotique. Dans une copie d’écran de démonstration, partagée par Google, des spécialistes relèvent une petite erreur factuelle dans une réponse de Bard relative au télescope spatial James-Webb. La sanction est immédiate : l’erreur fait le buzz, des médias comme Forbes se demandent comment Google a pu passer du « AI-first au AI-last », les investisseurs doutent, et Google perd 100 milliards de dollars de capitalisation

Mais Google a jeté les dés. Malgré ces aléas, la contre-attaque finit par porter lentement ses fruits. Le 21 mars, Bard est accessible sur liste d’attente aux USA et en UK. Les premiers retours des internautes sur Bard sont relativement positifs. D’autant plus que Google ne fait pas l’erreur de « survendre » son chatbot. Bard est présenté comme une « expérimentation », et encourage les internautes à signaler toute erreur afin de l’améliorer.

Au cours des mois suivants, il multiplie les annonces insistant sur l’intégration étroite de l’IA et du Search, afin de rendre l’expérience plus fluide et personnalisée pour les utilisateurs, et plus rentable pour les annonceurs. Le 10 mai, Bard est disponible dans 180 pays, sans liste d’attente, et la recherche Internet s’enrichit d’une « Search Generative Experience ».

Progressivement, la situation se stabilise. Bard parvient à s’affirmer dans le paysage et la capitalisation d’Alphabet, après quelques secousses, remonte. Les mois suivants verront la poursuite du renforcement des synergies entre Bard et Search, le lancement d’un nouveau modèle innovant de LLM, PaLM 2, et de multiples initiatives de Google pour assurer la sécurité de l’IA et la rendre responsable, y compris une initiative conjointe avec d’autres acteurs – dont OpenAI – le Frontier Model Forum.

L’analyse du rapport de force 9 mois après le lancement de ChatGPT 

Dix mois après le lancement de ChatGPT, sept mois après celui de Bing AI et de Bard, ou en est la situation ?

Un front stabilisé

En termes de parts de marché, le front semblé stabilisé : Google a regagné le terrain perdu. L’offensive de Microsoft n’a pas réussi à faire bouger significativement les lignes. Entre novembre 2022 et août 2023, malgré un léger frémissement pour Bing, les parts de marché sont quasiment revenues à la situation antérieure.

L’image de Google a néanmoins été fragilisée

Bien que Bard, après des débuts chaotiques, se soit installé dans le paysage, que l’image d’OpenAI ait commencé à pâlir (certains articles parlent même de risques de faillite), et que Bing n’ait pas réussi à transformer significativement l’essai, des doutes diffus sur l’avenir de Google subsistant néanmoins chez les utilisateurs, les annonceurs, les influenceurs et les investisseurs. Pour certains partenaires, l’option d’envisager une alliance avec Bing ne serait plus tabou. Le cas Samsung aurait notamment créé la panique chez Google, selon le New York Time. Le coût de la bataille, enfin, est élevé pour Google. Une recherche par LLM coûte 10 fois plus cher en infrastructure et énergie qu’une recherche classique. Microsoft, avec sa part de marché de 33% dans le cloud et ses services Office365, a plus de moyen de rentabiliser cette infrastructure que Google, numéro 3 seulement du cloud avec 9%  de part de marché, et challenger du collaboratif avec Workspace.

Le cours de bourse de Google, rétabli après les doutes, est revenu à une situation proche de son pic de mi 2021, mais reste donc à la traine derrière celui de Microsoft, dont le forward P/E est supérieur d’un tier.

Cela va augmenter la pression des investisseurs pour rendre profitable ou rationaliser les autres activités de Google (« other bets »), dont le résultat est pour l’instant négatif. Le licenciement préemptif de 12.000 employés dès mi janvier 2023 doit bien sûr aux craintes de récession partagées par la plupart des acteurs de la tech, mais prend une résonance particulière chez Google : les coûts doivent être optimisés en prévision de batailles difficiles à l’avenir.  

De nouveaux entrants en embuscade

Enfin, la bataille a revigoré les concurrents, pour lesquels la possibilité de déstabiliser Google ne parait plus si utopique. Outre Bing, les startups qui s’essayent à la concurrence comme you.com redoublent d’efforts. Sans compter les poids lourds en embuscade, comme Amazon, Meta, Apple voire x.AI (nouvelle société d’Elon Musk, créée en Juillet 2023 avec l’ambition de « comprendre la vraie nature de l’univers », en lien avec Twitter/X et Tesla) qui pourraient s’appuyer sur la puissance de l’IA pour accélérer la transformation des usages. Ceci en profitant notamment de leurs énormes audiences et de leur présence croissante dans les objets connectés (mobile, domotique, casques de réalité virtuelle ou augmentée, voiture connectée …). Des rumeurs prêtent même à Apple le projet de se positionner frontalement face à Google dans le Search, au travers de l’iPhone – qui touche près de 1,5 milliards d’utilisateurs actifs… Comme le soulignent des analystes : il ne s’agit plus seulement de rechercher des informations sur Internet. Le champ de bataille est la façon dont nous interagissons avec tous les appareils intelligents de notre quotidien. Google l’a bien compris. Avec Android, il se positionne dans le mobile et l’Internet des Objets depuis longtemps. Mais ses grands concurrents ont aussi de sérieux atouts dans leur manche.

Le « moment iPhone » ?

Par ailleurs, comme le souligne avec angoisse une note interne de Google ayant fuité sur Internet, « nous n’avons plus de protection face à la concurrence », l’IA bouleverse non seulement les cartes du Search, mais elle est désormais à la portée d’acteurs de toutes tailles, et remet en cause toutes les positions acquises, y compris d’ailleurs aussi celle d’OpenAI. Il y a une course à la puissance, que seuls les géants peuvent s’offrir du fait du coût des infrastructures de calcul (processeurs Nvidia, etc.). Mais il y a aussi une course à l’innovation agile. Compte tenu des progrès exponentiels de l’IA, et en s’appuyant sur le cloud et les LLM en open source, des startups peuvent désormais faire pour 100 dollars et en quelques semaines, ce à quoi des acteurs établis comme Google ou OpenAI devaient auparavant consacrer des mois et 10 millions de dollars. Ces remarques angoissées font un écho troublant à celles du célèbre mémo de 2011 de l’ancien PDG de Nokia à propos de l’iPhone, mais aussi et surtout à propos d’Android et des concurrents chinois. Le « moment iPhone » est peut-être bien là. Et il dépasse largement le cadre de la concurrence entre Google Search et Bing…

Google génère le doute

Si la première manche de cette guerre informationnelle n’a pas bouleversé les positions concurrentielles faciales, elle donc a créé le germe du doute sur Google chez le grand public, les annonceurs, les partenaires, les influenceurs et les investisseurs. Elle relance la pression des concurrents pour bouleverser la position établie de Google dans le Search, et plus largement dans l’IA.

Cette bataille est d’autant plus cruciale pour Google qu’elle est existentielle : via le Search, elle impacte potentiellement plus de 50% de son chiffre d’affaires [ii].

Inversement, les risques sont proportionnellement bien plus faibles pour les concurrents, notamment Microsoft, pour lequel l’IA est un moteur stratégique qui va souvenir fortement tout le reste de ses activités – Office365, services cloud, etc. – et pour lequel la recherche Internet est avec Bing une activité accessoire[iii].

Dans cette bataille, Microsoft apparait clairement gagnant dans la première manche.

Cette guerre illustre l’asymétrie des risques entre leader et challenger. Innovateur majeur, « disrupteur » de ses prédécesseurs dans les années 2000, Google se trouve aujourd’hui dans une position défensive, sur une technologie d’IA (les LLM) qu’il a pourtant créée et dont il aurait dû être le premier bénéficiaire. Elle illustre aussi l’avantage de l’offensive. En jouant défensif à chaque étape (continuité de l’expérience utilisateur, IA responsable, sécurité…), Google a peiné à convaincre pleinement. Il a surtout été aidé par l’inertie des usages. Beaucoup d’utilisateurs ont néanmoins entraperçu de nouveaux horizons. Même si OpenAI et Bing n’ont pas encore massivement convaincu, ils ont effrité les défenses de Google. De nouveaux chocs – peut-être d’acteurs tiers – pourraient les ébranler plus massivement

Quel sera l’avenir  de cette confrontation ?

Il est encore difficile à prévoir. La technologie de LLM est encore jeune. Les usages sont encore émergents. Les nouveaux acteurs prolifèrent. En outre, la bataille va très vite s’étendre de l’échiquier économique aux échiquiers sociétaux et politiques. Les débats sur la propriété intellectuelles, comme les exigences en termes de conformité et de responsabilité se multiplient. Les risques sociétaux de l’IA sur l’emploi, et plus largement, l’humanité, inquiètent. Le 22 mars 2023, 1000 scientifiques dont Elon Musk signaient une lettre ouverte alertant sur ces multiples dangers et appelant à une pause. En Europe et aux USA, les politiques s’apprêtent à légiférer. En Chine, ils le font déjà.  

Google sera au cœur de ces batailles. Son principal concurrent, Microsoft, a su se réinventer face à des crises existentielles similaires (Internet dans les années 90, l’open source dans les années 2000, le cloud dans les années 2010). Google aura-t-il cette capacité, alors qu’il n’avait pas rencontré de rival sérieux sur son cœur de métier depuis des décennies ? Pour Google plus que pour tout autre acteur et compte tenu de sa mission affichée d’ « organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous », cette guerre sera totalement informationnelle. Comme le souligne Sundar Pichai le 5 septembre 2023, à l’aube des 25 ans de Google : qu’à fait Google jusque-là sinon d’aider le monde à trouver des réponses à ses questions du quotidien ? Pour les 25 prochaines années, d’ici 2048, l’enjeu sera de répondre aux questions de l’avenir et de chercher de nouvelles frontières. Google a des atouts dans cette bataille. Mais, tout en restant prudent, il devra désormais être offensif. 

Jean-Christophe Spilmont (MSIE42 de l’EGE)

Notes

[i] En 2017, c’est Google qui a publié le premier article « Attention is All You Need », sur la technologie « Transformer », à l’origine de l’AI générative, puis qui a créé le premier « Large langage Model » (LLM), BERT. Les recherches de Google en matière d’innovation et d’IA ont néanmoins été marquées à plusieurs reprises par des polémiques, notamment mi 2022 sur son modèle LaMDA, qu’un ingénieur de Google avait clamé auprès de la presse être conscient, allant jusqu’à chercher des conseils juridiques pour « protéger » LaMDA de Google! Une polémique qui s’était soldée par le renvoi de l’ingénieur, et avait incité la direction de Google à ne pas lancer publiquement le chatbot. 5 mois après, OpenAI, sans s’embarrasser de telles précaution, lançait ChatGPT… Le dilemme classique de l’innovateur : un challenger comme OpenAI – ou Microsoft Bing – peut prendre plus de risques qu’un leader établi comme Google Search. Au pied du mur, c’est en s’appuyant sur le modèle LaMDA que Google lancera finalement Bard début 2023

[ii] Le revenu du « search » est comptabilisé dans « Google Search & others » et qui a représenté plus de 162 milliards de Dollars de revenus en 2022, sur un chiffre d’affaires global de 282 milliards.   

[iii] Le revenu du search est estimé chez Microsoft à moins de 12 milliards de Dollars en 2022, sur un chiffre d’affaires global de 198 milliards de dollars

 

Le potentiel révolutionnaire de l’informatique quantique constitue une rupture technologique majeure

Le potentiel révolutionnaire de l’informatique quantique constitue une rupture technologique majeure

OPINION. L’informatique quantique diffère de l’informatique classique en utilisant des bits quantiques (qubits) au lieu de bits classiques pour effectuer des calculs. Les qubits peuvent exister dans plusieurs états simultanément, ce qui permet un nombre considérablement accru de résultats potentiels. L’informatique quantique va transformer radicalement beaucoup de secteurs d’activité. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

                                                                                                                                           (Crédits : Quantonation)

 

L’informatique quantique en est encore à ses balbutiements, mais elle a le potentiel de tout révolutionner, de la cryptographie à la découverte de médicaments. Cela pourrait conduire au développement de nouveaux médicaments plus efficaces et ayant moins d’effets secondaires. C’est aussi un défi majeur pour la sécurité informatique. Les chercheurs et les entreprises technologiques devront donc trouver de nouvelles méthodes de chiffrement qui peuvent résister à la puissance des ordinateurs quantiques. Cela pourrait impliquer le développement de nouveaux algorithmes de chiffrement, ou l’utilisation de principes de la mécanique quantique pour créer ce que l’on appelle le « chiffrement quantique ».

Rappelons que les ordinateurs quantiques fonctionnent sur la base de principes clés de la physique quantique :

  • Qubits :
    • La pierre angulaire de l’informatique quantique, les qubits, sont la version quantique des bits binaires classiques. Contrairement aux bits réguliers qui sont soit 0 soit 1, un qubit peut représenter 0, 1 ou les deux en même temps.
  • Superposition :
    • Grâce à la superposition, les qubits peuvent effectuer plusieurs calculs simultanément. C’est ce principe qui donne aux ordinateurs quantiques leur puissance de calcul exponentielle.
  • Intrication :
    • Cet effet quantique permet aux qubits de se lier, de sorte que l’état d’un qubit peut affecter instantanément l’état d’un autre, quelle que soit la distance qui les sépare. Cette propriété permet aux ordinateurs quantiques de résoudre des problèmes complexes plus efficacement que les ordinateurs classiques.
  • Portes quantiques :
    • Les portes quantiques sont des opérations qui peuvent être effectuées sur un ensemble de qubits. Elles ressemblent aux portes logiques de l’informatique classique mais, grâce à la superposition et à l’intrication, les portes quantiques peuvent traiter simultanément toutes les entrées possibles.
  • Les ordinateurs quantiques nécessitent une infrastructure physique importante, refroidissant souvent la machine à des températures proches du zéro absolu et maintenan
  • IBM a démontré que les ordinateurs quantiques pouvaient surpasser les principales simulations classiques .À l’aide du processeur quantique IBM Quantum « Eagle », composé de 127 qubits supraconducteurs sur une puce, ils ont réussi à générer de grands états intriqués qui simulent la dynamique de spin d’un modèle de matériau.
  • L’ordinateur quantique de Google, Sycamore, a accompli une tâche qui aurait nécessité près d’un demi-siècle pour un ordinateur traditionnel.

Avantages du quantique

Les principaux avantages des ordinateurs quantiques sont notamment :

  • Plus rapide:
    • il peut effectuer n’importe quelle tâche plus rapidement par rapport à un ordinateur classique. Parce que les atomes se déplacent plus rapidement dans un ordinateur quantique qu’un ordinateur classique.
  • Précis:
    • sa précision de plus haut niveau le rend adapté à la sécurité nationale et au traitement des mégadonnées.
  • Efficacité énergétique:
    • il gaspille moins d’énergie

Les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques. Il est plus probable qu’ils coexisteront avec leurs homologues classiques, donnant accès aux technologies quantiques lorsque des calculs avancés sont nécessaires. Il y aura une coexistence entre l’informatique classique et l’informatique quantique comme il y a une coexistence des unités de traitement graphique (GPU) et des unités centrales de traitement (CPU) : le processeur exécute la plupart des tâches tandis que le GPU prend en charge les graphiques sophistiqués, le rendu vidéo et, de plus en plus, l’apprentissage automatique.

L’utilisation d’une machine classique restera la solution la plus simple et la plus économique pour résoudre la plupart des problèmes. Mais les ordinateurs quantiques promettent d’alimenter des avancées passionnantes dans divers domaines, de la science des matériaux à la recherche pharmaceutique. Les entreprises expérimentent déjà avec eux pour développer des choses comme des batteries plus légères et plus puissantes pour les voitures électriques, et pour aider à créer de nouveaux médicaments.

Voici quelques chiffres qui résument les grandes tendances du marché de l’informatique quantique :

  • La taille du marché de l’informatique quantique était évaluée à environ 1 milliard en 2022 à 8 milliards de dollars d’ici 2030
  • D’ici 2030, 2.000 à 5.000 ordinateurs quantiques seraient opérationnels étant donné qu’il existe de nombreuses pièces du puzzle de l’informatique quantique, le matériel et les logiciels nécessaires pour gérer les problèmes les plus complexes pourraient ne pas exister avant 2035 ou au-delà.
  • La plupart des entreprises ne seront pas en mesure de tirer une valeur significative de l’informatique quantique avant 2035, bien que quelques-unes verront des gains au cours des cinq prochaines années.

 De nombreux secteurs révolutionnés

L’informatique quantique va révolutionner de nombreuses industries.

Par exemple :

  • La finance
    • L’industrie de la finance et de l’investissement est l’un des secteurs qui pourraient grandement bénéficier de l’IA quantique. Avec la capacité d’analyser de grandes quantités de données en temps réel, les algorithmes d’IA quantique pourraient aider les sociétés financières à prendre des décisions d’investissement plus éclairées et à gérer les risques plus efficacement.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser les tendances du marché et prédire le comportement des actions, des obligations et d’autres instruments financiers.
    • Cela pourrait aider les investisseurs à prendre des décisions plus éclairées quant au moment d’acheter, de vendre ou de conserver leurs investissements.
    • Quantum AI pourrait également aider les entreprises financières à identifier de nouvelles opportunités d’investissement.
    • En analysant de grandes quantités de données, les algorithmes d’IA quantique pourraient identifier les tendances émergentes et les industries prêtes à croître. Cela pourrait aider les investisseurs à entrer au rez-de-chaussée de nouvelles industries et potentiellement gagner des retours importants sur leurs investissements.

 

  • La santé et la biotechnologie
    • Avec la capacité d’analyser des données génétiques et d’autres informations médicales complexes, l’IA quantique pourrait aider à identifier de nouveaux traitements et remèdes contre les maladies.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser de grandes quantités de données génétiques afin d’identifier les causes sous-jacentes de maladies telles que le cancer. Cela pourrait aider les chercheurs à développer de nouveaux traitements qui ciblent les mutations génétiques spécifiques qui causent ces maladies.
    • Quantum AI pourrait également aider les prestataires de soins de santé à personnaliser les traitements pour chaque patient.
    • En analysant les données génétiques d’un patient, les algorithmes d’IA quantique pourraient identifier les traitements les plus efficaces pour l’état spécifique de ce patient. Cela pourrait aider les fournisseurs de soins de santé à fournir des traitements plus efficaces et à améliorer les résultats pour les patients.

 

  • Les chaînes d’approvisionnement et la logistique
    • La logistique et la gestion de la chaîne d’approvisionnement sont un autre domaine qui pourrait grandement bénéficier de l’IA quantique. En optimisant des réseaux logistiques complexes, les entreprises pourraient réduire leurs coûts et améliorer leur efficacité.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser les routes maritimes et les délais de livraison afin d’identifier le moyen le plus efficace de transporter des marchandises.
    • En analysant les données de vente et d’autres facteurs, les algorithmes d’IA quantique pourraient prédire la demande de produits et aider les entreprises à optimiser leurs niveaux de stocks. Cela pourrait aider les entreprises à réduire gaspiller et améliorer rentabilité .

 

  • La modélisation climatique et environnementale
    • L’IA quantique pourrait également avoir un impact significatif sur la modélisation du climat et de l’environnement . En analysant de grandes quantités de données environnementales, les chercheurs pourraient mieux comprendre l’impact du changement climatique et développer des stratégies pour atténuer ses effets. Par exemple,
    • l’IA quantique pourrait être utilisée pour analyser les données satellitaires afin de suivre les changements du niveau de la mer et de prévoir l’impact de l’élévation du niveau de la mer sur les communautés côtières.
    • L’IA quantique pourrait également être utilisée pour analyser les conditions météorologiques et prédire la probabilité de catastrophes naturelles telles que les ouragans et les tornades.

Principales innovations

Voici quelques-unes des principales innovations dans le domaine de l’informatique quantique :

  • Qubits améliorés :
    • Les qubits, les unités de base de l’informatique quantique, sont les équivalents des bits classiques. Les chercheurs travaillent sur le développement de qubits plus fiables et plus cohérents, capables de stocker et de manipuler l’information quantique de manière plus stable. Différentes technologies sont explorées, comme les qubits supraconducteurs, les qubits à base d’ions piégés, les qubits à base de photons, etc.
  • Augmentation du nombre de qubits :
    • L’échelle et la complexité des calculs quantiques dépendent de la quantité de qubits disponibles. Les chercheurs cherchent à augmenter le nombre de qubits de manière significative pour pouvoir exécuter des algorithmes quantiques plus puissants. Les ordinateurs quantiques avec un grand nombre de qubits permettront de réaliser des calculs inaccessibles aux ordinateurs classiques.
  • Correction des erreurs quantiques :
    • Les systèmes quantiques sont susceptibles d’erreurs en raison de facteurs tels que le bruit, les interférences et les instabilités. La correction des erreurs quantiques est un domaine de recherche actif qui vise à développer des techniques pour détecter et corriger les erreurs quantiques, garantissant ainsi la fiabilité des calculs quantiques sur des systèmes réels.
  • Algorithms quantiques :
    • Les chercheurs travaillent sur le développement d’algorithmes spécifiques conçus pour être exécutés sur des ordinateurs quantiques. Ces algorithmes exploitent les propriétés quantiques pour résoudre des problèmes complexes plus rapidement que les algorithmes classiques. Des exemples d’algorithmes quantiques prometteurs incluent l’algorithme de factorisation de Shor, l’algorithme de recherche de Grover et l’algorithme de simulation quantique.
  • L’utilisation de l’apprentissage automatique quantique et de l’intelligence artificielle quantique :
    • les chercheurs explorent l’utilisation de l’informatique quantique pour développer de nouveaux algorithmes d’apprentissage automatique et d’intelligence artificielle qui peuvent tirer parti des propriétés uniques des systèmes quantiques.
  • Montée en puissance des services cloud quantiques :
    • avec l’augmentation du nombre de qubits et des temps de cohérence, de nombreuses entreprises proposent désormais des services cloud quantiques aux utilisateurs, ce qui leur permet d’accéder à la puissance de l’informatique quantique sans avoir à construire leur propre ordinateur quantique.
  • Avancement de la correction d’erreurs quantiques :
    • Pour rendre un ordinateur quantique pratiquement utile, il est nécessaire de disposer de techniques de correction d’erreurs quantiques pour minimiser les erreurs qui se produisent pendant le calcul. De nombreuses nouvelles techniques sont en cours de développement pour atteindre cet objectif.

Encore à un stage précoce

L’informatique quantique est encore à un stade précoce de développement, et de nombreux défis techniques doivent être surmontés avant que des systèmes quantiques largement utilisables et commercialement viables ne deviennent réalité. Cependant, les progrès continus dans ces domaines d’innovation ouvrent des perspectives passionnantes pour l’informatique quantique dans un avenir proche.

Muscler les SIC, l’un des premiers enseignements d’ORION

Muscler les SIC, l’un des premiers enseignements d’ORION

– Forces opérations Blog – publié le

Quelques semaines à peine après la fin de l’exercice ORION, l’état-major des Armées (EMA) livrait déjà ses premiers retours d’expérience au cours d’une audition parlementaire. L’occasion de revenir sur quelques lacunes capacitaires pressenties et confirmées à l’issue de ce « test de vérité » conduit sur plusieurs mois. 

« Nous avons atteint nos limites« 

« Si on affirmait qu’il ne manque pas un bouton de guêtre, on enverrait le pays « dans le mur » comme par le passé. Au contraire, regardons objectivement nos difficultés et nos marges de progrès », notait le général de division Yves Métayer général de division, chef de la division « emploi des forces » à l’EMA, peu de temps avant la pause estivale. 

Entre autres brèches détectées, la résilience et le dimensionnement des outils et réseaux de communication des armées, essentiellement d’ancienne génération. « Dans le domaine des systèmes d’information et de communication (SIC), nous avons atteint nos limites. Nous avons été très contraints, notamment dans les flux de données », souligne le général Métayer. 

La marche à franchir n’est pas mince. Conduit dans un cadre interalliés, un engagement de haute intensité nécessiterait « vingt fois plus de flux que nous n’en disposons aujourd’hui pour transmettre et échanger toutes les données qui nous sont nécessaires », estime-t-il. Et ce besoin de débit ne fera qu’augmenter, notamment du fait d’un programme SCORPION dont l’enjeu d’infovalorisation fait de chaque plateforme et chaque combattant un « générateur d’informations ». 

De nouveaux moyens

Face à ce constat, pas question de rester les bras croisés. « Nous avons identifié parmi les moyens déterminants pour prendre l’ascendant des lacunes qui sont au cœur de l’ambition capacitaire de la LPM [loi de programmation militaire] », rappelait le général Métayer. Bien que le sujet SIC ne bénéficie pas d’un « patch » dédié dans la LPM 2024-2030, des influx technologiques sont attendus au travers de certains grands ensembles. 

D’une part, les communications, qu’importe le milieu, sont parmi les 10 axes prioritaires d’un patch innovation abondé à hauteur de 10 Md€ sur sept ans. L’espace, d’autre part, sera créditée de 6 Md€ sur la période. Lancé le 6 juillet, le deuxième satellite SYRACUSE IV sera qualifié dans huit mois à l’issue d’une série de tests. La constellation alors formée participera à tripler le débit global à disposition des armées. 

Si le lancement du troisième satellite SYRACUSE IV passe définitivement à la trappe au profit de la constellation européenne IRIS², l’enveloppe prévue permettra de jeter les bases de SYRACUSE V, nouvelle génération de satellites souverains géostationnaire en orbite basse. 

Des évolutions sont aussi attendues au sol. D’une part, le segment sol de SYRACUSE IV se traduira par le renouvellement des stations utilisateurs. Plus de 440 stations sols plus puissantes, mieux sécurisées et mobiles seront déployées dans les trois armées grâce aux deux premiers incréments notifiés en 2019 et 2020 à Thales. Certaines seront embarquées sur des véhicules SCORPION. Dès 2021, quelques Griffon EPC recevait ainsi une antenne « SATCOM On The Move » (SOTM) conçue par Airbus afin d’entamer le remplacement des VAB VENUS. 

Également confié à Thales, le programme de radio logicielle CONTACT doit lui aussi participer à fluidifier et sécuriser les liaisons de données tactiques. Toutes versions et tous milieux confondus, 5790 postes auront en théorie été livrés aux forces d’ici 2024. Ce parc sera doublé à l’horizon 2030.  

La piste de l’hybridation

Reste qu’aucune de ces nouvelles technologies n’est entièrement à l’abri d’un coup de main adverse. Une autre voie est donc possible, celle d’un recours partiel aux réseaux civils. Déjà évoquée auparavant, « l’hybridation est la clef », estime le général Métayer. « En effet il y a une complémentarité à trouver entre les moyens souverains qui garantissent l’indépendance totale de notre système et d’autres moyens nécessaires pour transmettre un gros volume d’informations »

Véritable laboratoire, le conflit russo-ukrainien génère de précieux enseignement en matière de porosité entre univers militaire et civil. L’usage de la constellation privée Starlink, entre autres, n’est plus seulement circonscrit aux forces ukrainiennes. « Une division américaine qui s’entraînait en Pologne disposait d’outils crypto capables d’emprunter les flux civils en utilisant Starlink, estimant avoir un cryptage suffisamment robuste pour consentir à cette vulnérabilité. Nous avons suggéré de regarder quels sont les opérateurs en Europe capables d’offrir ce genre de service en consentant des risques », indique le général Métayer.

La démarche comporte son lot d’aléas. Pour l’officier français, « en utilisant des canaux civils, on est beaucoup plus sujet aux interceptions, on est vulnérable à certaines perturbations, à des coupures qu’on ne maîtrise pas. Dans un système un peu « saturé » et en utilisant beaucoup de canaux, une hybridation peut être envisagée ». 

La réussite de cette bascule vers des canaux civils dépendra de nombreux paramètres, telles que la nature de l’information transmise et la capacité à anticiper l’éventuelle réaction ennemie. « On peut consentir des prises de risque s’agissant d’informations qui, deux heures plus tard, ne présentent plus aucun intérêt et pourraient presque être envoyées sur des réseaux non protégés comme WhatsApp. Si vous avez bougé, deux heures après, vous ne risquez rien. C’est ce que font les Ukrainiens. On apprend beaucoup de la façon dont les Ukrainiens utilisent les systèmes cellulaires », relevait le général Métayer. 

Crédits image : armée de Terre