Atos : l’État fait une offre pour racheter les activités souveraines du groupe

Atos : l’État fait une offre pour racheter les activités souveraines du groupe

Bruno Le Maire a annoncé avoir fait une offre ce week-end à Atos, pour racheter ses activités souveraines. Le groupe, en difficulté financière, est le concepteur de supercalculateurs français.

© Bloomberg – Bruno Le Maire, le ministre de l’Économie et des Finances.


L’État vole au secours d’Atos. Bruno Le Maire a déclaré sur LCI avoir «déposé ce week-end une lettre d’intention en vue d’acquérir toutes les activités souveraines d’Atos». Le géant informatique français doit faire face à des difficultés financières et cette opération permettrait que certaines activités stratégiques «ne passent dans les mains d’acteurs étrangers», a souligné le ministre de l’Économie et des Finances, interrogé par Darius Rochebin.

En effet, Atos est relié par de multiples contrats avec l’armée française et a réalisé des supercalculateurs fondamentaux pour maintenir la dissuasion nucléaire. La lettre d’intention formulée par l’État concerne ces supercalculateurs, mais aussi des serveurs utilisés pour le développement de l’intelligence artificielle et des produits de cybersécurité. Le groupe emploie aujourd’hui 4 000 salariés, dont la majorité travaille en France et génère près de 11 milliards d’euros de chiffre d’affaires par an.

Bruno Le Maire espère que d’autres entreprises se rallieront à l’action de l’État

Parce que le sauvetage d’Atos est une priorité pour l’exécutif, l’État s’est déjà engagé à prêter 50 millions d’euros au groupe. L’objectif : stabiliser ses finances pour qu’il puisse continuer d’opérer. Grâce à cette enveloppe, l’État peut déjà mettre son veto sur des décisions prises concernant Bull, la filiale en charge de la construction des supercalculateurs.

Bruno Le Maire espère que l’État ne sera «pas seul» à proposer son soutien au géant informatique. Il souhaite que d’autres entreprises du domaine de la défense ou de l’aéronautique, puissent se joindre à l’action de l’Agence des participations de l’État, qui intervient sous les ordres du ministre.

Rapport d’information sur les défis de la cyberdéfense (Assemblée nationale, 17 janvier 2024).

Rapport d’information sur les défis de la cyberdéfense (Assemblée nationale, 17 janvier 2024).

par Theatrum Belli – publié le

Theatrum Belli

Theatrum Belli https://theatrum-belli.com/

Le ministère des Armées veut disposer de deux prototypes d’ordinateurs quantiques d’ici 2032

Le ministère des Armées veut disposer de deux prototypes d’ordinateurs quantiques d’ici 2032

https://www.opex360.com/2024/03/07/le-ministere-des-armees-veut-disposer-de-deux-prototypes-dordinateurs-quantiques-dici-2032/


Pour résumer, la physique quantique ne différencie par le corpuscule de l’onde. On parle alors d’une « onde-corpuscule » laquelle peut se trouver simultanément dans des états différents. Et les états de deux particules peuvent être corrélés sans qu’aucun signal ne soit échangé entre elles.

De telles propriétés sont de nature à ouvrir de nouvelles perspectives, notamment dans le domaine de l’informatique, l’unité de base d’une information [le bit] pouvant prendre les valeurs 0 et 1 en même temps [on parle alors de qbit]. Mais cela suppose pallier le « phénomène de décohérence », c’est à dire la perte des effets quantiques au moment de passer à l’échelle macroscopique.

Étant donné le potentiel qu’elle est susceptible d’offrir, la technologie quantique ne peut qu’intéresser le ministère des Armées. La Loi de programmation militaire [LPM] 2024-30 en fait d’ailleurs une priorité. Celle-ci précise que, en 2025, le gouvernement devra remettre au Parlement un rapport sur les « utilisations possibles de la technologie quantique dans les armées françaises ».

Mais des programmes ont d’ores et déjà été lancés. Ainsi, en septembre 2020, la Direction générale de l’armement [DGA] a notifié un marché de 13 millions d’euros à l’Office national d’études et de recherches aérospatiales [ONERA] pour se procurer des « Gravimètres Interférométriques de Recherche à Atomes Froids Embarquables » [GIRAFE].

Destinés au Service hydrographique et océanographique de la Marine nationale [SHOM], ces gravimètres quantiques permettront de « mesurer avec une grande précision l’accélération de la pesanteur et d’évaluer ainsi les variations de masses sous la surface du sol ». À l’époque, la DGA avait souligné qu’il s’agissait de « la première application pratique d’un système de mesure utilisant les propriétés quantiques d’atomes de Rubidium piégés et refroidis par laser ».

Par ailleurs, le Fonds innovation de défense, piloté par Bpifrance pour le compte du ministère des Armées, a effectué ses premières opérations au profit des entreprises Pasqal [processeurs quantiques] et Quandela [photonique quantique]. En outre, la DGA a apporté son soutien à d’autres PME positionnées sur ce créneau, dont Muquans et Syrlinks, et financé une vingtaine de thèses sur la théorie quantique.

Un autre application dans laquelle le ministère des Armées place beaucoup d’espoirs concerne le calcul quantique, lequel permettrait de traiter très rapidement des milliards de données, que ce soit pour la dissuasion, le renseignement, la simulation ou encore la conception de nouveaux systèmes d’armes.

D’où le programme Proqcima, lancé officiellement par la DGA à l’occasion de la Journée nationale du quantique, organisée à la Bibliothèque Nationale de France, le 6 mars. L’objectif est de « disposer de deux prototypes d’ordinateurs quantiques universels de conception française à horizon 2032 », précise le ministère des Armées, via un communiqué.

Pour cela, des accords-cadres ont été notifié par la DGA à cinq entreprises spécistes des technologies quantiques, dont Pasqal, Alice&Bob, C12, Quandela et Quobly. « Ils posent les bases d’un partenariat innovant entre l’État et de jeunes sociétés issues de la recherche française » et « doivent permettre le développement des technologies les plus prometteuses depuis des prototypes de laboratoire jusqu’à des solutions de calcul quantique à large échelle [LSQ, pour Large Scale Quantum] utilisables pour les besoins de la Défense », explique-t-il.

Lancé en partenariat avec le Secrétariat général pour l’investissement [SGPI] et piloté par l’Agence du numérique de défense [AND, rattachée à la DGA], ce projet bénéficie d’un financement maximum de 500 millions d’euros.

Les cinq entreprises retenues au titre du programme PROQCIMA ont leurs propres atouts pour relever ce défi. Mais reste à voir lesquelles parviendront à « lever les différents verrous d’ingénierie, de fabrication et d’industrialisation », avance le ministère des Armées.

Aussi, ce programme se déroulera en trois étapes : preuve de concept, maturation puis industrialisation. En 2028, seuls les trois projets les plus performants seront sélectionnés pour la suite. Puis « la compétition se limitera aux deux technologies les plus performantes qui continueront le programme pour passer de prototypes de calculateurs [objectif : 128 qubit logiques] à des produits industriels utilisables par leurs premiers clients [objectif : 2048 qubit logiques] », conclut le ministère.

Vers une révolution grâce à la Super-conductivité à température ambiante

Vers une révolution grâce à la Super-conductivité à température ambiante

par François Jolain – Revue Conflits – publié le 28 février 2024

https://www.revueconflits.com/vers-une-revolution-grace-a-la-super-conductivite-a-temperature-ambiante/


Transport, Énergie, Informatique, Plasma, Médecine, tous les verrous vont sauter. Quelle serait la prochaine découverte d’envergure comme le pétrole ou la semi-conductivité du silicium ? Il se pourrait bien que ce soit la super-conductivité à température ambiante. Tour à tour les verrous sur les forts courants, les champs magnétiques et les plasmas vont sauter.

Une conduction électrique parfaite

La conductivité est la capacité d’un matériau à résister au courant. Les matériaux conducteurs comme l’or ou le cuivre laissent facilement passer le courant. Alors que les matériaux isolants comme le caoutchouc bloquent le courant.

Toute l’électronique tient sur les matériaux semi-conducteurs, comme le silicium. Leur résistant est pilotable en jouant sur leur propriété.

Aujourd’hui, nous allons voir, les super-conducteurs, des matériaux sans la moindre résistance au courant. Ces matériaux existent déjà comme le niobium-titane, mais cette propriété intervient uniquement à la température de -263°C (pour le niobium-titane).

Quelle implication dans nos vies permettra un super-conducteur à température ambiante.

Courant sans limites

Premièrement un matériau sans perte de courant permet un phénomène spectaculaire appelé la lévitation magnétique. Un train est en construction au Japon (SCMaglev) pour remplacer les trains magnétiques par bobine, mais encore une fois, il faut refroidir le matériau. Un super-conducteur à température ambiante permettra de généraliser ces nouveaux trains.

Un autre phénomène spectaculaire de la superconduction est l’apparition d’effets quantiques à notre échelle telle la jonction Josephson, alors que les effets quantiques sont plutôt réservés à l’échelle de l’atome. La généralisation des matériaux super-conducteurs généralisera aussi les ordinateurs quantiques.

Même de bons conducteurs comme l’or ou le cuivre ont des pertes, ces pertes engendrent de la chaleur par effet Joule. Dès lors que le courant devient trop fort, le métal fond. Ce phénomène est utilisé dans l’industrie pour usiner (EDM ou forge par induction). Cependant, il s’agit bien souvent d’une contrainte qui impose une limite de courant capable de transiter dans un câble.

Avec un câble super-conducteur, l’électricité de tout Paris pourrait passer dans un seul câble électrique !

Le courant peut circuler indéfiniment dans une boucle superconductrice, on peut donc s’en servir pour stocker de l’électricité (SMES). Mais encore une fois, ce réservoir à électron nécessite des températures extrêmes, ce qui le rend trop coûteux pour une utilisation grand public.

Forts champs magnétiques

En déverrouillant la limite du courant dans un câble, on déverrouille également les champs magnétiques à haute énergie.

Ces champs vont permettre d’accroître la précision des scanners médicaux IRM, leurs résolutions sont corrélées à la puissance du champ magnétique produit.

L’armée pourrait s’intéresser au canon de gauss dans lequel un projectile est catapulté par un champ magnétique.

Le monde du plasma

Enfin, le champ magnétique permet la manipulation du plasma. Le plasma est le quatrième état de la matière, il se produit à haute température quand les électrons se détachent des atomes et circulent librement dans le gaz. Le gaz devient sensible aux champs magnétiques.

Un champ magnétique permet de manipuler un plasma aussi bien en le cloisonnant dans un volume donné, en le mettant en mouvement ou en faisant varier sa température.

Les superconducteurs à température ambiante vont donc faire avancer tous les domaines autour du plasma comme le laser, la fusion nucléaire ou la recherche fondamentale.

Conclusion

On voit maintenant que le super-conducteur à température ambiante est un verrou technologique. Il permet de faire circuler des courants sans perte et donc sans limite dans un matériau. Cela ouvre les portes des champs magnétiques haute énergie et avec eux le monde des plasmas.

À chacun de ses étages se trouvent des progrès stratégiques pour l’humanité.

Démantèlement du groupe de cybercriminels Lockbit

Démantèlement du groupe de cybercriminels Lockbit

Grâce à des efforts concertés menés par les autorités françaises et européennes, le groupe de cybercriminels Lockbit, à la tête d’un réseau de ransomware d’envergure mondiale, a été sérieusement démantelé.

Illustration.

Illustration. (Photo: LP/L’Essor)


Rédaction de l’Essor – publié le 22 février 2024

https://lessor.org/operationnel/demantelement-du-groupe-de-cybercriminels-lockbit


Depuis son apparition à la fin de l’année 2019, le groupe de cybercriminels Lockbit était devenu synonyme de menace majeure dans le monde de la cybercriminalité. Leur modèle de “ransomware as a service”, permettant à des groupes d’attaquants d’accéder à leurs logiciels malveillants, a entraîné des milliards d’euros de dégâts à l’échelle mondiale, touchant plus de 2.500 victimes, dont plus de 200 en France.

Baptisée “Cronos” et initiée par les autorités françaises en collaboration avec plusieurs pays partenaires (dont le Royaume-Uni, les États-Unis, l’Allemagne, les Pays-Bas, la Suisse, le Japon, l’Australie, le Canada et la Suède), une opération de démantèlement a été menée durant la semaine du 19 février 2024. Coordonnée au niveau européen par Europol et Eurojust, cette opération a été le fruit d’une coopération durable et de plusieurs réunions de coordination entre les agences de sécurité.

Les efforts conjoints ont permis de prendre le contrôle d’une partie significative de l’infrastructure de Lockbit, y compris sur le darknet, et de saisir de nombreux serveurs utilisés par le groupe criminel, notamment en Allemagne et aux Pays-Bas. En outre, plus de 200 comptes de crypto-monnaie liés à l’organisation criminelle ont été gelés.

En France, l’enquête, ouverte en 2020 par la section de lutte contre la cybercriminalité du parquet de Paris, a été menée par les gendarmes de l’Unité nationale cyber (UNC) – C3N. Les investigations ont abouti à des interpellations en Pologne et en Ukraine, ainsi qu’à des perquisitions. Ces actions sont intervenues dans le cadre d’une instruction judiciaire visant des chefs d’extorsion en bande organisée, d’association de malfaiteurs, et d’autres délits liés à la cybercriminalité.

Un portail créé pour que les victimes récupèrent leurs données

L’implication d’Europol a été cruciale dans la coordination de cette opération d’envergure internationale. Le Centre européen de lutte contre la cybercriminalité (EC3) d’Europol a joué un rôle central dans le partage d’informations et l’organisation des activités opérationnelles. Les experts d’Europol ont été déployés sur le terrain pour soutenir les forces de l’ordre et faciliter les échanges d’informations entre les pays participants.

Au-delà du démantèlement de l’infrastructure de Lockbit, cette opération a également permis de fournir des outils de décryptage pour récupérer les fichiers cryptés par le ransomware, disponibles gratuitement sur le portail “No More Ransom” en 37 langues.

Le « soldat augmenté » de l’Armée française, entre réalité et fantasmes

Le « soldat augmenté » de l’Armée française, entre réalité et fantasmes

« Chaque militaire possède un libre arbitre, qu’il doit préserver. Personne ne reste soldat toute sa vie, nous ne sommes ni des cobayes ni des pions au service de l’État. » Ces mots sont ceux de Roland, 34 ans, ancien membre des Forces spéciales (FS), l’une des unités d’élites de l’Armée française les plus exigeantes qui effectue principalement des opérations militaires à extérieur de la France (OPEX). Pendant onze ans, Roland effectue des missions autour du monde, officielles et officieuses, pour l’État français. Du Sahel (Mali, Niger, Burkina-Faso) au Levant (Irak), où il combat dans le cadre de la guerre contre l’État islamique (EI), il a vécu les évolutions des outils technologiques livrés aux soldats. 

Depuis plusieurs années, face à l’apparition des nouvelles technologies, l’Armée française développe ses compétences pour augmenter les capacités physiques, psychologiques et cognitives des militaires. Le terme « soldat augmenté » définit les augmentations liées au corps et à l’esprit dans le but de renforcer son efficacité opérationnelle. De manière courte ou prolongée, l’intérêt est d’augmenter toutes les facultés du militaire, afin d’être plus fort que l’ennemi.

Dans l’ombre, pour le ministère des Armées, chercheurs et ingénieurs planchent sur le sujet, pour développer les performances humaines du soldat, jugé trop humain, donc fragile aux yeux des états-majors. L’homme est, paradoxalement, le maillon faible du champ de bataille. Mi-hommes, mi-robots, le corps de ces soldats est parfois modifié pour en faire des armes de guerre high-tech. Des techniques mécaniques sont déjà utilisées telles que des robots d’assistance, des lunettes à vision nocturnes et même des exosquelettes, qui permettent de courir plus vite sur le terrain et de soulever des charges lourdes. Des substances stimulantes sont aussi employées comme des capsules aux amphétamines et des comprimés à la caféine à effet prolongé, pour lutter contre le stress, la faim et la fatigue. 

Source : Wikimedia/CC/Domenjod
Source : Wikimedia/CC/Domenjod

De l’intérêt de l’exosquelette

De prime abord, les apports des nouvelles technologies sur le corps du soldat comportent de nombreux bénéfices. « J’ai déjà pris des cachets à la caféine, c’est assez puissant et ça permet de lutter contre la fatigue sur plusieurs jours », confie Roland, qui a été déployé en Irak après les attentats de 2015 en France. Sur le terrain, au Levant, il combat avec son équipe les djihadistes de l’EI, dans une cadence infernale. Dans certaines armées étrangères, des interventions chirurgicales des oreilles et des yeux pour amplifier les aptitudes des soldats ont déjà eu lieu, pas encore en France. «Il faut rappeler qu’au sein des forces spéciales, nous sommes sélectionnés pour nos aptitudes physiques, qui comprennent également une excellente vision et une audition parfaite », détaille l’ancien soldat du 1er RPIMa. En service, il entend parler du développement des exosquelettes pour l’Armée de terre, sans avoir pu le tester sur le terrain. Lorsqu’il quitte les forces spéciales, le projet n’était pas encore finalisé. 

« Il y a un intérêt certain à utiliser l’exosquelette. Nous avons un métier usant, certains collègues ont des problèmes de genoux et de dos à force de porter des équipements de plusieurs dizaines de kilos, c’est très traumatisant pour le corps. L’exosquelette permet de se soulager, en augmentant nos forces à l’aide de tiges et de rotules automatisées. » Toutes ces avancées technologiques sont fièrement exposées lors de chaque salon militaire « Innovation Défense », qui se tient chaque année Porte de Versailles à Paris. « C’est très intéressant, mais ça a un prix, tout cela coût très cher et l’Armée française n’a pas des moyens illimités », précise Yannick, 29 ans, ancien soldat formé au 35e régiment d’infanterie de Belfort (Bourgogne-France-Comté).

« Avant de développer de l’IA et des outils high-tech pour nous, ils devraient d’abord bien nous approvisionner correctement en munitions »

Tireur de précision, Yannick considère qu’il est impossible pour l’Armée française de développer pleinement le « soldat augmenté », compte tenu des finances attribuées aux troupes. « J’ai été confronté concrètement aux coupures économiques. Avant de développer de l’IA et des outils high-tech pour nous, ils devraient d’abord bien nous approvisionner correctement en munitions. Je ne vois pas comment c’est possible de rivaliser avec d’autres puissances étrangères, étant donné notre budget », dépeint-il agacé.  

Des exosquelettes sont aussi utilisés dans le privé, comme chez Enedis pour les travaux qui mobilisent le haut du corps ici // Source : Wikimedia/CC/ACEFJKRS
Des exosquelettes sont aussi utilisés dans le privé, comme chez Enedis pour les travaux qui mobilisent le haut du corps ici // Source : Wikimedia/CC/ACEFJKRS

L’ancienne ministre des Armées, Florence Parly, avait déclaré en décembre 2020 à propos du soldat augmenté : « C’est un futur auquel il faut nous préparer. Nous disons oui à l’armure d’Iron Man et non à la mutation génétique de Spiderman. » Le gouvernement assure que chacune de ces modifications se fera avec le consentement du soldat et avec un suivi sur les risques et les bénéfices. Sera-t-il vraiment possible ? 

« Je n’aurais pas accepté »

Pour Yannick, aujourd’hui retourné dans la vie civile, ces modifications biologiques sur les corps des soldats seront difficilement applicables. Puces GPS, opérations chirurgicales… autant de modifications qui ne peuvent pas être réalisées dans le consentement du soldat, signature à l’appui. « Toucher au corps, c’est aussi toucher à l’intégrité physique et spirituelle, moi je n’aurai pas accepté », stipule-t-il fermement. Les croyances religieuses ou les principes de chaque soldat sont également une donnée à prendre en compte.

Pour Roland, l’enjeu principal est de continuer à garder le contrôle sur ces nouvelles technologies au sein de l’Armée. « Si la main de l’homme ne décide pas de l’action finale, comme abattre la cible, cela pose un énorme problème. On ne peut pas se reposer à 100 % sur ces nouvelles technologies. Comment ferions-nous en cas de coupures de courant généralisées de la part de l’ennemi ? Ou si la batterie de l’exosquelette lâche ? On a toujours besoin d’un back-up humain. »  

Des dizaines d’entreprises françaises commencent à surfer sur le business du soldat augmenté. Des sociétés voient le jour telles que RB3D, qui a créé l’un des premiers prototypes d’un exosquelette en France en 2014. Leur projet « Hercule » a été partiellement financé par l’Armée française dès 2009, il s’agit d’une carapace qui se présente comme un sac à dos avec des jambes dont on enfile les extrémités, pour décupler les forces du fantassin.

Pour l’heure, il est essayé lors des cours militaires, mais pas encore utilisé sur le terrain. Une autre société, Physip, développe un casque EEG (électroencéphalographie), qui mesure l’activité cérébrale de son porteur et en déduit son état de stress et de fatigue. Son logiciel d’interprétation est capable d’analyser les données de l’utilisateur lorsqu’il est en pleine action. Malgré ces développements, l’Armée française est frileuse d’imposer à ces soldats ces avancées, retardant ainsi sa progression en la matière face à d’autres armées (États-Unis, Chine notamment.)   

L’exosquelette Hercule // Source : rb3d
L’exosquelette Hercule // Source : rb3d

Ne pas toucher à la dignité du corps du soldat

La particularité de l’Armée française est d’être plus attentive sur les questions d’éthique et de consentement que d’autres nations. La France est le seul pays au monde à s’être doté d’un communiqué d’éthique de la Défense sur le soldat augmenté, rendu en 2020. « L’idée est de dire oui au soldat augmenté, mais de fixer des limites claires. Comme par exemple bannir tout ce qui est invasif, tels que des puces dans le cerveau ou des technologies irréversibles », précise Pierre Bourgois, maître de conférences en science politique à l’Université d’Angers et auteur de L’enjeu du soldat augmenté pour les puissances démocratiques.

Cette ligne rouge à ne pas franchir comprend le fait de ne pas toucher à la dignité du corps du soldat, chaque modification corporelle irréversible est proscrite. Ni les États-Unis, qui utilisent certaines puces GPS, ni la Chine, qui réalisent des tests de mutations génétiques sur l’ADN, ne respectent ces principes. 

« La France fait le choix de ne pas décrocher stratégiquement en restant dans la course, tout en ne dépassant pas certaines zones rouges telles que les ingénieries génétiques », précise à Numerama Pierre Bourgois. Cette course au soldat augmenté s’inscrit depuis 2010 dans un contexte de techguerre : recours à l’IA, attaque de drones, robots démineurs, hacking de masse etc. Mais tout est question de choix politiques. « La France a décidé de s’inscrire dans cette course tout en respectant des valeurs morales. Si demain, il y a une cyberguerre d’envergure mondiale, il faudra faire un choix politique plus clair », résume le maître de conférences.

Le soldat augmenté est-il un fantasme ?

Le monde asiatique est plus collectif sur ces questions, les gouvernements pensent davantage à l’augmentation du groupe, tandis que les États-Unis ont investi massivement dans les nouvelles technologies parce qu’ils sont très technophiles. Les Américains appellent cette nouvelle ère « algorithmic warfare », une période qui place la technologie au cœur de l’écosystème de la guerre de haute intensité. La France, quant à elle, tente de rattraper son retard en ayant adopté en juillet 2023 par le Parlement la loi de programmation militaire (LPM) 2024-2030, qui prévoit d’allouer 413 milliards d’euros à la « transformation des armées », dont 10 milliards à l’innovation de la défense. Notamment, l’exploitation de technologies de robotique sous-marine : drones sous-marins, robots, lutte antimines marines etc. 

Aujourd’hui, le comité d’éthique de la Défense et le ministère des Armées sont très prudents sur la question. Pour Gérard de Boisboissel, ingénieur de recherche à l’École Saint-Cyr Coëtquidan et directeur de l’observatoire « Enjeux des Nouvelles Technologies pour les Forces », le soldat augmenté fait l’objet de nombreux fantasmes dans la société civile.

« Les puces GPS, c’est niet ! »

En 2015, il dirige un programme sur le soldat augmenté. Aujourd’hui, il fait tester l’exosquelette à ses étudiants de Saint-Cyr, futurs officiers de l’Armée française. Lorsque nous évoquons la question du consentement de chaque soldat, il précise que son inquiétude repose davantage sur des nanotechnologies, souvent irréversibles sur le corps humain. « Des nanotechnologies ? On va s’en passer. Notre service de santé au sein des armées est très vigilant sur la question. Il faut penser à la restitution des corps de nos soldats après leur service », craint-il, avant de préciser que « rien ne remplacera l’entraînement physique et psychologique du soldat. Vous avez beau discuter d’augmentation, nous sommes en 2024 et en Ukraine les soldats dorment et se battent toujours dans des tranchées. » 

La plupart des soldats et militaires français sont catégoriques quant aux modifications irréversibles sur leurs corps, même si celles-ci pourraient augmenter considérablement leurs forces ou leur faire gagner une bataille. La question du retour à la vie civile est cruciale. Malgré la course au soldat augmenté, nos militaires français font preuve d’un réel esprit critique et de liberté. « Je refuse qu’on m’opère pour m’augmenter, vous savez j’ai une vision au-delà de l’Armée. Après mon service, je redeviens un citoyen normal. Donc les puces GPS, c’est niet », conclut Roland à Numerama.

Selon un rapport parlementaire, le ministère des Armées risque de tomber dans le « piège Microsoft »

Selon un rapport parlementaire, le ministère des Armées risque de tomber dans le « piège Microsoft »

https://www.opex360.com/2024/01/23/selon-un-rapport-parlementaire-le-ministere-des-armees-risque-de-tomber-dans-le-piege-microsoft/


Aussi, faute de solution française [voire européenne], le ministère des Armées s’est donc tourné vers des logiciels américains, notamment ceux fournis par Microsoft. Évidemment, cela n’est pas sans poser quelques interrogations… Surtout quand l’on sait que cette société a collaboré avec la National Security Agency [NSA, renseignement électronique américain] pour renforcer la sécurité de son système d’exploitation Windows.

Quoi qu’il en soit, en 2009, le ministère des Armées notifia à Microsoft un contrat appelé « open bar » par la presse spécialisée car il permettait de puiser dans le catalogue de l’éditeur américain les logiciels utiles contre un prix forfaitaire de 100 euros [hors taxe] par poste de travail. Et dans le cadre d’une procédure opaque puisqu’il n’y avait pas eu d’appel d’offres. Malgré les polémiques qu’il suscita, ce contrat fut reconduit en 2013 et en 2017, pour un montant estimé à 120 millions d’euros.

Cependant, en 2021, selon l’APRIL, l’une des principales associations de promotion et de défense du logiciel libre, le ministère des Armées passe désormais par l’Union des groupements d’achats publics [UGAP] pour « la fourniture de licences et l’exécution de prestations associées aux programmes en volume Microsoft AE, OV, AMO et Adobe ETLA ».

Évidemment, le ministère des Armées prend toutes les précautions possibles pour éviter tout risque d’espionnage. Sa « stratégie consiste […] à miser sur des couches de chiffrement. Certes, le système d’exploitation est édité par Microsoft et n’est donc, de ce fait, pas souverain, mais les données ne peuvent pas être lues grâce au chiffrement. Ainsi, l’architecture de sécurité qui a été pensée pour les terminaux et les centres de données du ministère limite, en cas de compromission, l’accès aux données en clair », expliquent les députés Anne Le Hénanff [Horizons] et Frédéric Mathieu [Nupes/LFI], dans un rapport sur les défis de la cyberdéfense, rédigé dans le cadre d’une « mission flash » de la commission de la Défense.

« Si des données chiffrées ont été captées, le ministère des Armées indique que cela ne sera pas grave car il ne sera pas possible […] de les lire. Microsoft n’a donc, de ce fait, pas accès [à ses] données », insistent-ils.

S’agissant des réseaux classifiés fonctionnant grâce à Microsoft Windows, la solution est encore plus simple : ils ne sont pas connectés à Internet. C’est ainsi le cas au sein du Commandement de la cyberdéfense [COMCYBER]. « L’outil de travail au ministère est le réseau Intradef, lequel est au niveau ‘diffusion restreinte’ et sur lequel rien ne transite en clair. Ainsi, si des données sont interceptées, elles seront illisibles », précisent Mme Le Hénanff et M. Mathieu.

Cela étant, le ministère des Armées utilise aussi de nombreux logiciels fournis par Microsoft.

« Pour obtenir un système informatique [SI] entièrement souverain, il faudrait également une filière souveraine pour les composants matériels et leurs logiciels [processeurs, microcontrôleurs, etc.] ainsi qu’une filière pour les applications logicielles [suite bureautique, navigateurs, etc.]. Aussi, le développement d’un système d’information entièrement souverain paraît inatteignable et d’un coût prohibitif », soulignent les rapporteurs.

« S’agissant […] de Microsoft, son rôle se limite à fournir des logiciels. Les infrastructures sur lesquelles [ceux-ci] tournent sont propriété de l’État et les tâches de configuration et d’administration sont assurées entièrement par des personnels étatiques ou des sociétés de confiance de la Base industrielle et technologique de défense. À date, il n’est pas envisagé d’apporter de changement majeur à cette doctrine », poursuivent-ils.

Seulement, cette pratique pourrait ne pas durer étant donné que Microsoft envisage de commercialiser ses logiciels « en tant que services » [« Software as a Service  » – SaaS]. En clair, les applications ne seraient plus stockés sur le disque dur d’un ordinateur mais hébergées par un serveur distant.

« Ce risque est une véritable épée de Damoclès qui pèse sur la protection des données des services de l’État mais surtout sur notre souveraineté. Cela est dû au fait que le modèle émergent consiste au seul achat de droits d’utilisation de solutions hébergées à l’étranger. D’ailleurs, Microsoft a indiqué que d’ici 2030, voire 2027, il n’y aura plus que des logiciels sous forme de SaaS », a expliqué Mme Le Hénanff, lors de l’examen du rapport en commission. « Le ministère des Armées, compte tenu de ses exigences en matière de sécurité et de souveraineté, ne peut accepter cette situation, et aujourd’hui, il est difficile d’estimer l’ampleur des risques… », a-t-elle continué.

Plus précisément, le « passage de Windows à une logique de service présente le risque d’une réduction graduelle de la capacité du ministère des Armées à exploiter en propre des réseaux basés sur des technologies Microsoft », met en garde le rapport, qui évoque un « piège Microsoft ». Aussi plaide-t-il pour « explorer » les possibilités offertes par les logiciels libres, comme Linux.

Mais, visiblement, la Direction interarmées des réseaux d’infrastructure et des systèmes d’information [DIRISI] est prudente sur ce sujet.

« Contrairement à certaines idées reçues, libre ne veut pas dire gratuit et l’utilisation […] des logiciels libres a un coût. Réduire la dépendance à Microsoft poserait des problèmes de compatibilité, aurait un coût équivalent et serait chronophage en termes de formation et de maintien en compétence des administrateurs », a en effet expliqué la DIRISI aux deux députés. « Cela demanderait surtout de disposer d’un minimum de ressources humaines internes dédiées et expertes sur un large panel de logiciels libres, ce qui semble inaccessible à court ou moyen terme compte tenu des tensions actuelles en termes de ressources humaines dans le domaine du numérique », a-t-elle ajouté.

En outre, si la décision de passer aux logiciels libres devait être prise, il n’est pas certain que « toutes les fonctionnalités actuelles du socle et des systèmes métiers puissent être préservées en l’état ». Et elle « aurait des répercussions sur la capacité du ministère à faire évoluer l’architecture de sécurité de son socle et donc à assurer la sécurité de ce dernier » et serait susceptible de retarder « les travaux nécessaires pour s’assurer de notre interopérabilité avec nos alliés et la capacité de la France à être nation cadre », avancent les rapporteurs.

À noter que, depuis une dizaine d’années, la Gendarmerie nationale a déjà fait le grand saut vers les logiciels libres, avec le développement et la généralisation de « GendBuntu », un système d’exploitation basé sur Ubuntu.

[*] Lire : « Souveraineté technologique française : Abandons et reconquête« , de Maurice Allègre, qui était à la tête de la Délégation générale à l’informatique durant cette période.

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

Sommet de l’IA de Bletchley Park : Concertation mondiale ou lobbying chic ?

 

Le sommet de Bletchley Park visait à rassembler les gouvernements mondiaux et les géants du secteur pour débattre de la réglementation de l’IA, dans sa variante générative en particulier. L’objectif affiché consiste notamment à mettre en place un institut dédié, avec une portée mondiale, alors même que les initiatives se multiplient dans le monde, et désormais notamment aux États-Unis. Les organisateurs et Rishi Sunak en premier lieu ont voulu centrer l’agenda sur les risques les plus extrêmes liés aux modèles dits « de frontière » : risques existentiels et de perte de contrôle par le biais de modèles qui s’émanciperaient de l’humain. Nombreux sont pourtant les problèmes à traiter, en premier lieu celui de la fiabilisation bien plus générale des modèles et du potentiel de manipulation tous azimuts, qui occupent les responsables politiques dans le monde.

Un agenda inspiré par la perspective de la Big tech

On peut ainsi voir dans l’organisation de ce sommet un biais qui correspond plutôt à la perspective des géants du secteur, qui ont volontiers répondu présents à l’appel. Ceux-ci développent des modèles massifs, qui, bien que dominant le secteur, ne reposent pas toujours sur des méthodes à la pointe conceptuelle de l’IA. Ainsi, les acteurs de la Big Tech s’affichent volontiers favorables à une volonté de réglementation qui se concentrerait sur les risques apocalyptiques pour l’humanité, venant des innovations de « frontière » et moins sur leurs propres modèles. Il s’agit là de fonder la réglementation sur des systèmes de licences qui viendront aussi ralentir la concurrence d’agents émergents, notamment ceux issus de l’open source, sans tellement entraver l’expansion des acteurs établis.

Les géants sont évidemment plus réticents face aux tentatives de réglementation plus détaillées, qui sont au cœur des discussions politiques dans le monde. Celles-ci ne se focalisent naturellement pas que sur les risques apocalyptiques de la « frontière » technologique, mais aussi sur les failles béantes des modèles existants. Au début de l’été, on voyait ainsi Sam Altman, dans un paradoxe seulement apparent, soutenir avec une certaine emphase, au Congrès américain qui avait pris du retard sur le sujet, l’idée d’une régulation de l’IA, en pointant les risques existentiels, et quelques jours plus tard, menacer l’Europe de la déserter en cas de régulation plus large. Il annonçait quelques jours plus tard une première implantation européenne d’OpenAI au Royaume-Uni.

Fragmentation politique et course à la réglementation

Le gouvernement britannique a affiché la volonté d’impliquer des États très divers, au-delà des lignes de failles géopolitiques, en associant la Chine en particulier. Au-delà de cette voie de concertation géopolitique, se manifeste aussi une volonté consistant à attirer les grands groupes au Royaume-Uni, en ce qui concerne leurs investissements européens. Le symbole lié à Bletchley Park (où l’équipe d’Alan Turing perça le code Enigma) enrobe cette stratégie d’une belle aura historique, face au renforcement de la volonté d’encadrement à Washington et au tropisme bureaucratique qu’a manifesté le Parlement européen. Les États censés contribuer à cet exercice de gouvernance mondial en ont perçu les limites et ont eu tendance à rester sur leur réserve.

Aux États-Unis, l’administration Biden, après avoir tardé, cherche en effet à accélérer le processus d’encadrement et de transparence des risques des modèles, au moyen de décrets. En parallèle, Washington a affiché une certaine distance vis-à-vis de l’initiative de Londres et l’idée d’un institut mondial visant à la régulation de l’IA, privilégiant l’idée d’un organisme national.

En ce qui concerne l’Union européenne, son AI Act, en gestation, a pris les devants, mais présente des failles notables, en particulier en ce qui concerne sa complexité et le fait qu’il a été pensé sur la base de développements antérieurs à l’explosion des modèles de langage depuis 2017. De nombreux gouvernements, notamment français et en allemand, ont commencé à percevoir ce texte comme une menace pour le développement de l’IA en Europe et souhaitent adopter une approche plus flexible et adaptative de la réglementation. Pour autant, cela n’implique pas d’accorder un blanc-seing à la Big tech en renvoyant toute réglementation aux seuls risques existentiels des modèles « de frontière ».

Garantir la sécurité et l’émergence de nouveaux acteurs européens

L’Europe dispose de compétences poussées dans le domaine et d’un considérable vivier d’ingénieurs et de chercheurs qui se lancent aisément dans le développement de modèles d’IA suivant de nombreuses applications. Pour autant le manque de financement ralentit considérablement le rattrapage face aux États-Unis. Cela fait, plus en profondeur, craindre une dépendance de long terme aux modèles développés aux États-Unis. Une réglementation labyrinthique risque de creuser cet écart.

Le secteur de l’IA connaît une explosion du rôle de l’open source qui permet à des acteurs très variés de se lancer dans la course des applications de l’IA et de la réappropriation de modèle. De cette façon, l’Europe peut se positionner de la façon la plus directe. Cela est plus aisé en particulier que de viser à développer entièrement de nouveaux modèles géants ex-nihilo, bien que cet enjeu reste aussi crucial, pour des raisons notamment d’autonomie technologique. L’intérêt de l’Europe est ainsi d’offrir une réglementation lisible, qui s’adapterait aux risques en fonction des développements réels de la technologie, et d’abaisser autant que possible les barrières d’entrée.

Il est essentiel pour toutes les zones économiques que la régulation vienne garantir la sécurité des modèles ainsi que l’émergence de nouveaux acteurs de pointe, plutôt que d’assurer les positions établies des géants du secteur, qui ne constituent pas une garantie de sécurité au vu des failles de leurs propres modèles.

Recherche Internet : la guerre des Intelligences Artificielles

Recherche Internet : la guerre des Intelligences Artificielles

 

 

École de Guerre économique – publié le 3 octbore 2023

https://www.ege.fr/infoguerre/recherche-internet-la-guerre-des-intelligences-artificielles


D’ici 2 ans, il aura été créé plus de données dans le monde que depuis l’origine de l’humanité. Et ceci devrait désormais se répéter toutes les 2 prochaines années environ.

Cette croissance exponentielle de l’information, liée au développement d’Internet et du World Wide Web, ont fait naitre depuis trente ans un besoin stratégique : comment s’orienter dans un univers numérique en explosion ? Comment et où rechercher la bonne information ?

Bien que de premiers pionniers se soient positionnés très tôt sur ce créneau – Altavista, Yahoo, Lycos, etc. – c’est finalement Google qui – à l’aide d’un algorithme ‘PageRank’ révolutionnaire, d’une attention particulière portée à l’expérience utilisateur, et d’un modèle économique basé sur les enchères d’achat de mots clés – s’est imposé à partir des années 2000 comme le leader des moteurs de recherche sur Internet, s’emparant de plus de 90% du marché du « Search », contre environ 3% à son plus proche rival, Bing de Microsoft. Alors que l’on pensait cette position inexpugnable, l’annonce le 30 novembre 2022 de ChatGPT par la start-up OpenAI – puis l’annonce de l’exploitation de cette technologie par Microsoft Bing – a brutalement remis en cause cette position dominante. Cela a conduit le PDG de Google, Sundar Pichai, à mobiliser brusquement l’entreprise autour d’une alerte de type « Code Rouge », et à lancer une contre-offensive informationnelle massive. Une bataille qui s’est jouée avant tout via la communication publique et les médias sur l’échiquier économique d’un marché global du Search de plus de 270 milliards de dollars, mais dont les débordements vers les échiquiers politiques et sociétaux sont en cours. Avec en perspective un impact stratégique : le contrôle de l’accès à l’information sur Internet.

Le contexte de la recherche Internet : une domination écrasante de Google masquant des fragilités sous-jacentes

Quoiqu’il ait subi au fil des années quelques tentatives de concurrence généraliste (avec Microsoft Bing) ou locale (Baidu en Chine, Yandex en Russie, Naver en Corée, Qwant en Europe…) le leadership de Google dans le Search n’avait jamais été remis en cause depuis le début des années 2000.  Autour de principes éthiques forts (« Don’t be evil » de 2004 à 2015 puis « Do the right thing ») et d’une stratégie d’excellence technologique, Google avait réussi à se hisser en deux décennies au rang de 4e capitalisation mondiale, élargissant son offre de la recherche Internet vers les services collaboratifs (Google Workspace), les médias (YouTube), le Cloud computing (Google Cloud), la maison connectée (Nest), la santé (Verily, Calico), la voiture autonome (Waymo), etc. Une stratégie de diversification confirmée en 2015 par la transformation de Google en consortium : « Alphabet ».

Mais des fragilités sous-jacentes 

Si le chiffre d’affaires (CA) du groupe a atteint le chiffre impressionnant de 280 Milliards de dollars en 2022, les 28% de croissance du groupe par an (depuis son introduction en bourse de 2004) ont longtemps masqué des fragilités sous-jacentes. D’abord une dépendance massive de plus de 80% aux revenus publicitaires, entre Google Search, Google Workspace et Youtube. Ceci contre 9% seulement de CA sur le cloud et moins de 1% sur les autres activités (« other bets »), les deux en perte en 2022. Puis des risques constants d’attaque pour abus de position dominante, matérialisés aux USA en 2022. Et enfin une fragmentation lente mais régulière des usages de la recherche sur Internet (recherche de produits sur Amazon.com, recherches de personnes sur Facebook ou LinkedIn, etc.). Des incertitudes qui ne manquent pas de préoccuper depuis longtemps les investisseurs, qui, tout en plébiscitant Google, valorisent aujourd’hui son action à un prix/bénéfice (forward P/E) inférieur d’un tier (20) à ceux d’autres grands leaders du numérique comme Apple (29) ou Microsoft (30).

C’est dans ce contexte de doute diffus que ChatGPT va faire en novembre 2022 une percée stratégique.

Un coup de tonnerre pour l’image de Google Search : l’annonce de ChatGPT

Le 22 novembre 2022, la société OpenAI lance un agent conversationnel – « chatbot », basé sur l’intelligence artificielle générative – permettant de dialoguer avec les internautes et de répondre à leurs questions : ChatGPT. Fondée initialement en 2015 comme laboratoire de recherche à but non lucratif dédié à développer des systèmes d’Intelligence Artificielle Générale (IAG) sûrs et bénéfiques pour l’humanité,  puis renforcée en 2018 par la création d’une filiale commerciale, la société OpenAI n’avait jusque-là pas fait beaucoup parler d’elle hors des cercles spécialisés, si ce n’est à propos de l’implication brève d’Elon Musk, co-fondateur parti en 2018. Avec 1 million d’utilisateurs en 5 jours, le lancement grand public de ChatGPT – développé discrètement depuis 2018 – crée un choc mondial. Il est vrai que la promesse est impressionnante : entrainé sur Internet, avec 175 milliards de paramètres, le chatbot est capable de donner l’illusion des réponses quasi humaines et d’un accès instantané au savoir mondial. Pour les (rares) experts, la technologie sur laquelle il s’appuie n’est pas fondamentalement nouvelle, et il s’agit avant tout d’un beau coup marketing d’OpenAI. Pour le grand public, c’est la révélation. Il suffit de moins de deux mois pour que la barre des 100 millions d’utilisateurs soit franchie, et que le lancement de ChatGPT propulse définitivement l’« Intelligence Artificielle Générative » comme la révolution du 21e siècle, dédiée à avoir selon les analystes « un impact similaire à celui qu’ont eu en leur temps l’invention de la machine à vapeur, de l’électricité, et de l’Internet »

Un impact très négatif pour Google

Si l’usage possible de chatGPT est plus large que celui d’un moteur de recherche (dialogue conversationnel, traduction, résumé de textes, création de code informatique, etc.), la concurrence possible avec Google Search fait rapidement la Une. Qu’attendent effectivement les internautes d’un moteur de recherche ? Ce que propose Google : une liste de liens correspondant à des mots clés ? Ou une réponse précise ? Ces interrogations lancinantes vont rapidement créer un buzz négatif : « ChatGPT va-t-il remplacer Google ? » Est-ce comme le disent certains le « moment iPhone » de la recherche Internet ? Google est-il un « mort en sursis », tout comme les premiers leaders du téléphone mobile – Nokia et BlackBerry – ont été tués par Apple ? Beaucoup d’utilisateurs le proclament sur les réseaux sociaux : “Google is done“, “OpenAI just killed Google”, etc. Les tests de comparaison entre ChatGPT et Google fleurissent et sont répercutés sur des sites de presse majeurs.

La presse se fait l’écho d’une « alerte rouge » interne chez Google

Ces interrogations ne pas qu’externes : elles sont aussi et surtout interne à Google. Trois semaines après le lancement de ChatGPT, le New York Times révèle que l’onde de choc a donné lieu à une alerte rouge chez Google. Il apparaît même rapidement que les deux fondateurs de Google, Larry Page et Sergey Brin, qui s’étaient éloigné de la maison mère pour se consacrer aux activités émergentes d’Alphabet ont été rappelés à la rescousse et multiplient les réunions d’urgence.

L’occasion rêvée pour Microsoft de déstabiliser son rival de toujours

C’est à ce moment où Google est affaibli que son principal concurrent dans la recherche Internet, Microsoft Bing, lance une attaque frontale. Le potentiel de ChatGPT n’a pas échappé à Microsoft, qui est un investisseur majeur d’OpenAI depuis 2018. Avec Bing, Microsoft essaye depuis longtemps de concurrencer Google Search, mais sans succès notable jusque-là. Il voit avec la percée de ChatGTP l’occasion de bouleverser enfin les positions établies et va faire une succession d’offensives médiatiques auprès des utilisateurs, des annonceurs, des influenceurs, et des investisseurs.

10 millions de dollars investis dans OpenAI et une intégration à Bing

Le 23 janvier 2023 Microsoft lance l’offensive en annonçant investir 10 milliards de dollars dans OpenAI. Le 7 février, Microsoft annonce l’intégration des technologies d’OpenAI dans ses offres Edge, Microsoft 365, etc. Et elles seront aussi et surtout intégrées à Bing ! Un lancement de « Bing AI » qui sera immédiatement effectif (en préversion sur liste d’attente), avec une adaptation spécifique de la technologie d’OpenAI au Search, et la promesse de « réinventer le futur du Search ». « C’est un nouveau jour pour la recherche Internet » déclare le PDG de Microsoft, Satya Nadella. Au contraire de ChatGPT, le nouveau Bing disposera des dernières informations sur Internet (alors que Chat GPT 3.5 était bâtit sur un corpus de données Internet ne dépassant pas 2021). De plus, il citera ses sources.

 

Bing AI : vers un nouveau paradigme pour la recherche Internet ?

L’annonce de Microsoft est forte : elle prétend bouleverser le paradigme du Search. Va t’elle détrôner Google ? Elle semble avoir un retentissement sensible. Un mois plus tard, dès le 8 mars, Microsoft rapporte que la préversion de Bing AI aurait gagné un million d’utilisateurs et que Bing a atteint 100 millions d’utilisateurs actifs par jour. Signe selon Microsoft d’une nouvelle tendance de fond dans un marché de la recherche Internet assez stable jusque-là… Le 4 mai, Bing AI est enfin disponible à tous, sans liste d’attente, et devient multimédia. Suit une liste continue d’améliorations progressives au cours des mois.

La contre-attaque informationnelle de Google en 4 phases

Si Google travaille depuis longtemps sur l’intelligence artificielle, l’offensive semble le surprendre. C’est d’autant plus paradoxal que le PDG de Google, Sundar Pichai, l’a positionné dès 2016 comme une « AI-first company », dédiée à utiliser l’IA dans tous ses services, et que c’est justement Google Brain, un des deux laboratoires d’IA de Google, qui a été à l’origine des technologies de « Transformers » et de « Large Langage Model » (LLM) dont OpenAI s’est inspiré. Des expérimentations pionnière qu’il hésitait à sortir des cartons, du fait de craintes sur la qualité des résultats et de précédentes polémiques[i]. Ceci combiné à la volonté évidente d’avancer prudemment pour ne pas cannibaliser son modèle économique publicitaire. L’aversion au risque et le dilemme classique du leader ! La valorisation d’Alphabet s’érodant de mois en mois depuis le pic de mi 2021 (-40%) et la pression concurrentielle et réputationnelle s’intensifiant, Google est au pied du mur : il se doit de réagir. Il le fait en 4 phases.

Phase 1 – Lancer une mobilisation des équipes, pilotée par le PDG d’Alphabet lui-même Sundar Pichai, et dont on laisse la presse se faire l’écho

Il faut non seulement remobiliser l’interne. Il faut le faire savoir en externe pour rassurer les investisseurs et les annonceurs. De décembre 2022 à janvier 2023, Google se prépare à la bataille. Il se doute qu’en plus de la menace d’OpenAI, il va être directement attaqué par Microsoft – investisseur d’OpenAI – sur le Search. La communication à la presse est souterraine mais ferme : la réponse de Google va venir bientôt. “Nous continuons de tester nos technologies d’IA en interne pour nous assurer qu’elles soient pleinement efficaces et sûres, et nous sommes impatients de partager bientôt ces expériences en externe” souligne mi-janvier Lily Lin, une porte-parole de Google, au New York Times qui a rapporté l’alerte rouge chez Google. En parallèle, Google gagne du temps en s’assurant que des extensions ChatGPT soient disponibles sur son navigateur Chrome. Un moyen de garder les utilisateurs chez Google.

Phase 2 : contribuer souterrainement à laisser le battage médiatique sur ChatGPT se calmer et le marché souligner ses faiblesses

Comme les analystes le soulignent dans leur classique « cycle du hype » : après le « pic des attentes exagérée » vient vite « l’abîme de la désillusion ». Il est vite clair que, si les capacités de ChatGPT ont d’abord bluffé beaucoup d’utilisateurs, une utilisation régulière vient rapidement les relativiser. Biais, erreurs (poétiquement nommées « hallucinations »), incapacité à discerner information, rumeurs et désinformation, non réplicabilité… : les résultats de ChatGPT sont parfois éblouissants mais souvent aussi immatures. Au point que le PDG d’OpenAI, Sam Altman lui-même, doit rapidement reconnaître qu’il est « prématuré de se fier à ChatGPT pour quoi que ce soit d’important ». Google en est bien conscient. C’est un défaut de tous les LLM. C’est bien pour cela qu’il n’avait jusque-là pas lancé le sien auprès du grand public. OpenAI et Microsoft, tout à leur offensive marketing, se gardaient bien de mentionner ces faiblesses. Google laisse la presse s’en saisir et les experts le souligner. Cela contribue à faire émerger progressivement un relatif consensus médiatique : les chatbots conversationnels sont encore expérimentaux. Ils ne remplaceront pas le « Search » mais le compléteront. Ils sont utiles pour répondre à certaines questions, pour peu que l’on ait conscience de leurs limites. Google Search est de son côté particulièrement efficace pour trouver à peu près tout sur Internet. Bref, le futur est à la conjonction des deux. C’est là où Google va se positionner dans les deux phases suivantes de la contre-attaque.

Phase 3 : Réaffirmer publiquement le leadership de Google en IA, et sa capacité à combiner le plus efficacement « Search » et IA générative

Dès janvier, et alors que la valorisation d’Alphabet est au plus bas depuis son pic de mi 2021 (-40%), Google est prêt pour réaffirmer son avance technologique dans le domaine de l’intelligence artificielle, via une approche médiatique tous azimuts (relations presse, blogs institutionnel…). Mi-Janvier, une série de publications sur son blog viennent rappeler à la presse et au grand public la mission de Google sur l’IA, comment il applique l’IA pour répondre aux enjeux sociétaux, la manière dont il applique l’IA dans ses produits, etc. Cette approche est également particulièrement active auprès des investisseurs, à l’occasion des conférences dédiées aux analystes financiers, comme le 2 février 2023 (Q4 earning call) où le PDG de Google Sundar Pichai focalise l’essentiel de son intervention introductive sur les réalisations de Google en IA et l’imminence d’annonces majeures à ce sujet.

Phase 4 : contre-attaquer via l’annonce portée par le CEO lui-même du propre agent conversationnel de Google : Bard

Le 6 février, c’est le PDG de Google lui-même, Sundar Pichai, qui court circuite l’annonce de Satya Nadella, PDG de Microsoft, prévue le lendemain, pour annoncer que Google lancera son propre chatbot, Bard. Celui-ci est positionné comme un « service d’IA collaboratif » plutôt que comme un moteur de recherche, et sera disponible le 21 mars, tout comme une API ouverte aux développeurs. Il rappelle par ailleurs que c’est Google qui est à l‘origine de la technologie de Transformers et de LLM sur laquelle l’IA générative est basée, et que Google travaille à intégrer ces technologies dans tous ses services, de manière fluide et sûre. Une petite pique à OpenAI, à ses hallucinations, et aux risques règlementaires… Ce sera d’ailleurs une constante de Google : insister sur son approche responsable de l’IA, un discours développé depuis 2018.

Fortement attendu, l’annonce de Bard s’avère pourtant chaotique. Dans une copie d’écran de démonstration, partagée par Google, des spécialistes relèvent une petite erreur factuelle dans une réponse de Bard relative au télescope spatial James-Webb. La sanction est immédiate : l’erreur fait le buzz, des médias comme Forbes se demandent comment Google a pu passer du « AI-first au AI-last », les investisseurs doutent, et Google perd 100 milliards de dollars de capitalisation

Mais Google a jeté les dés. Malgré ces aléas, la contre-attaque finit par porter lentement ses fruits. Le 21 mars, Bard est accessible sur liste d’attente aux USA et en UK. Les premiers retours des internautes sur Bard sont relativement positifs. D’autant plus que Google ne fait pas l’erreur de « survendre » son chatbot. Bard est présenté comme une « expérimentation », et encourage les internautes à signaler toute erreur afin de l’améliorer.

Au cours des mois suivants, il multiplie les annonces insistant sur l’intégration étroite de l’IA et du Search, afin de rendre l’expérience plus fluide et personnalisée pour les utilisateurs, et plus rentable pour les annonceurs. Le 10 mai, Bard est disponible dans 180 pays, sans liste d’attente, et la recherche Internet s’enrichit d’une « Search Generative Experience ».

Progressivement, la situation se stabilise. Bard parvient à s’affirmer dans le paysage et la capitalisation d’Alphabet, après quelques secousses, remonte. Les mois suivants verront la poursuite du renforcement des synergies entre Bard et Search, le lancement d’un nouveau modèle innovant de LLM, PaLM 2, et de multiples initiatives de Google pour assurer la sécurité de l’IA et la rendre responsable, y compris une initiative conjointe avec d’autres acteurs – dont OpenAI – le Frontier Model Forum.

L’analyse du rapport de force 9 mois après le lancement de ChatGPT 

Dix mois après le lancement de ChatGPT, sept mois après celui de Bing AI et de Bard, ou en est la situation ?

Un front stabilisé

En termes de parts de marché, le front semblé stabilisé : Google a regagné le terrain perdu. L’offensive de Microsoft n’a pas réussi à faire bouger significativement les lignes. Entre novembre 2022 et août 2023, malgré un léger frémissement pour Bing, les parts de marché sont quasiment revenues à la situation antérieure.

L’image de Google a néanmoins été fragilisée

Bien que Bard, après des débuts chaotiques, se soit installé dans le paysage, que l’image d’OpenAI ait commencé à pâlir (certains articles parlent même de risques de faillite), et que Bing n’ait pas réussi à transformer significativement l’essai, des doutes diffus sur l’avenir de Google subsistant néanmoins chez les utilisateurs, les annonceurs, les influenceurs et les investisseurs. Pour certains partenaires, l’option d’envisager une alliance avec Bing ne serait plus tabou. Le cas Samsung aurait notamment créé la panique chez Google, selon le New York Time. Le coût de la bataille, enfin, est élevé pour Google. Une recherche par LLM coûte 10 fois plus cher en infrastructure et énergie qu’une recherche classique. Microsoft, avec sa part de marché de 33% dans le cloud et ses services Office365, a plus de moyen de rentabiliser cette infrastructure que Google, numéro 3 seulement du cloud avec 9%  de part de marché, et challenger du collaboratif avec Workspace.

Le cours de bourse de Google, rétabli après les doutes, est revenu à une situation proche de son pic de mi 2021, mais reste donc à la traine derrière celui de Microsoft, dont le forward P/E est supérieur d’un tier.

Cela va augmenter la pression des investisseurs pour rendre profitable ou rationaliser les autres activités de Google (« other bets »), dont le résultat est pour l’instant négatif. Le licenciement préemptif de 12.000 employés dès mi janvier 2023 doit bien sûr aux craintes de récession partagées par la plupart des acteurs de la tech, mais prend une résonance particulière chez Google : les coûts doivent être optimisés en prévision de batailles difficiles à l’avenir.  

De nouveaux entrants en embuscade

Enfin, la bataille a revigoré les concurrents, pour lesquels la possibilité de déstabiliser Google ne parait plus si utopique. Outre Bing, les startups qui s’essayent à la concurrence comme you.com redoublent d’efforts. Sans compter les poids lourds en embuscade, comme Amazon, Meta, Apple voire x.AI (nouvelle société d’Elon Musk, créée en Juillet 2023 avec l’ambition de « comprendre la vraie nature de l’univers », en lien avec Twitter/X et Tesla) qui pourraient s’appuyer sur la puissance de l’IA pour accélérer la transformation des usages. Ceci en profitant notamment de leurs énormes audiences et de leur présence croissante dans les objets connectés (mobile, domotique, casques de réalité virtuelle ou augmentée, voiture connectée …). Des rumeurs prêtent même à Apple le projet de se positionner frontalement face à Google dans le Search, au travers de l’iPhone – qui touche près de 1,5 milliards d’utilisateurs actifs… Comme le soulignent des analystes : il ne s’agit plus seulement de rechercher des informations sur Internet. Le champ de bataille est la façon dont nous interagissons avec tous les appareils intelligents de notre quotidien. Google l’a bien compris. Avec Android, il se positionne dans le mobile et l’Internet des Objets depuis longtemps. Mais ses grands concurrents ont aussi de sérieux atouts dans leur manche.

Le « moment iPhone » ?

Par ailleurs, comme le souligne avec angoisse une note interne de Google ayant fuité sur Internet, « nous n’avons plus de protection face à la concurrence », l’IA bouleverse non seulement les cartes du Search, mais elle est désormais à la portée d’acteurs de toutes tailles, et remet en cause toutes les positions acquises, y compris d’ailleurs aussi celle d’OpenAI. Il y a une course à la puissance, que seuls les géants peuvent s’offrir du fait du coût des infrastructures de calcul (processeurs Nvidia, etc.). Mais il y a aussi une course à l’innovation agile. Compte tenu des progrès exponentiels de l’IA, et en s’appuyant sur le cloud et les LLM en open source, des startups peuvent désormais faire pour 100 dollars et en quelques semaines, ce à quoi des acteurs établis comme Google ou OpenAI devaient auparavant consacrer des mois et 10 millions de dollars. Ces remarques angoissées font un écho troublant à celles du célèbre mémo de 2011 de l’ancien PDG de Nokia à propos de l’iPhone, mais aussi et surtout à propos d’Android et des concurrents chinois. Le « moment iPhone » est peut-être bien là. Et il dépasse largement le cadre de la concurrence entre Google Search et Bing…

Google génère le doute

Si la première manche de cette guerre informationnelle n’a pas bouleversé les positions concurrentielles faciales, elle donc a créé le germe du doute sur Google chez le grand public, les annonceurs, les partenaires, les influenceurs et les investisseurs. Elle relance la pression des concurrents pour bouleverser la position établie de Google dans le Search, et plus largement dans l’IA.

Cette bataille est d’autant plus cruciale pour Google qu’elle est existentielle : via le Search, elle impacte potentiellement plus de 50% de son chiffre d’affaires [ii].

Inversement, les risques sont proportionnellement bien plus faibles pour les concurrents, notamment Microsoft, pour lequel l’IA est un moteur stratégique qui va souvenir fortement tout le reste de ses activités – Office365, services cloud, etc. – et pour lequel la recherche Internet est avec Bing une activité accessoire[iii].

Dans cette bataille, Microsoft apparait clairement gagnant dans la première manche.

Cette guerre illustre l’asymétrie des risques entre leader et challenger. Innovateur majeur, « disrupteur » de ses prédécesseurs dans les années 2000, Google se trouve aujourd’hui dans une position défensive, sur une technologie d’IA (les LLM) qu’il a pourtant créée et dont il aurait dû être le premier bénéficiaire. Elle illustre aussi l’avantage de l’offensive. En jouant défensif à chaque étape (continuité de l’expérience utilisateur, IA responsable, sécurité…), Google a peiné à convaincre pleinement. Il a surtout été aidé par l’inertie des usages. Beaucoup d’utilisateurs ont néanmoins entraperçu de nouveaux horizons. Même si OpenAI et Bing n’ont pas encore massivement convaincu, ils ont effrité les défenses de Google. De nouveaux chocs – peut-être d’acteurs tiers – pourraient les ébranler plus massivement

Quel sera l’avenir  de cette confrontation ?

Il est encore difficile à prévoir. La technologie de LLM est encore jeune. Les usages sont encore émergents. Les nouveaux acteurs prolifèrent. En outre, la bataille va très vite s’étendre de l’échiquier économique aux échiquiers sociétaux et politiques. Les débats sur la propriété intellectuelles, comme les exigences en termes de conformité et de responsabilité se multiplient. Les risques sociétaux de l’IA sur l’emploi, et plus largement, l’humanité, inquiètent. Le 22 mars 2023, 1000 scientifiques dont Elon Musk signaient une lettre ouverte alertant sur ces multiples dangers et appelant à une pause. En Europe et aux USA, les politiques s’apprêtent à légiférer. En Chine, ils le font déjà.  

Google sera au cœur de ces batailles. Son principal concurrent, Microsoft, a su se réinventer face à des crises existentielles similaires (Internet dans les années 90, l’open source dans les années 2000, le cloud dans les années 2010). Google aura-t-il cette capacité, alors qu’il n’avait pas rencontré de rival sérieux sur son cœur de métier depuis des décennies ? Pour Google plus que pour tout autre acteur et compte tenu de sa mission affichée d’ « organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous », cette guerre sera totalement informationnelle. Comme le souligne Sundar Pichai le 5 septembre 2023, à l’aube des 25 ans de Google : qu’à fait Google jusque-là sinon d’aider le monde à trouver des réponses à ses questions du quotidien ? Pour les 25 prochaines années, d’ici 2048, l’enjeu sera de répondre aux questions de l’avenir et de chercher de nouvelles frontières. Google a des atouts dans cette bataille. Mais, tout en restant prudent, il devra désormais être offensif. 

Jean-Christophe Spilmont (MSIE42 de l’EGE)

Notes

[i] En 2017, c’est Google qui a publié le premier article « Attention is All You Need », sur la technologie « Transformer », à l’origine de l’AI générative, puis qui a créé le premier « Large langage Model » (LLM), BERT. Les recherches de Google en matière d’innovation et d’IA ont néanmoins été marquées à plusieurs reprises par des polémiques, notamment mi 2022 sur son modèle LaMDA, qu’un ingénieur de Google avait clamé auprès de la presse être conscient, allant jusqu’à chercher des conseils juridiques pour « protéger » LaMDA de Google! Une polémique qui s’était soldée par le renvoi de l’ingénieur, et avait incité la direction de Google à ne pas lancer publiquement le chatbot. 5 mois après, OpenAI, sans s’embarrasser de telles précaution, lançait ChatGPT… Le dilemme classique de l’innovateur : un challenger comme OpenAI – ou Microsoft Bing – peut prendre plus de risques qu’un leader établi comme Google Search. Au pied du mur, c’est en s’appuyant sur le modèle LaMDA que Google lancera finalement Bard début 2023

[ii] Le revenu du « search » est comptabilisé dans « Google Search & others » et qui a représenté plus de 162 milliards de Dollars de revenus en 2022, sur un chiffre d’affaires global de 282 milliards.   

[iii] Le revenu du search est estimé chez Microsoft à moins de 12 milliards de Dollars en 2022, sur un chiffre d’affaires global de 198 milliards de dollars

 

Le potentiel révolutionnaire de l’informatique quantique constitue une rupture technologique majeure

Le potentiel révolutionnaire de l’informatique quantique constitue une rupture technologique majeure

OPINION. L’informatique quantique diffère de l’informatique classique en utilisant des bits quantiques (qubits) au lieu de bits classiques pour effectuer des calculs. Les qubits peuvent exister dans plusieurs états simultanément, ce qui permet un nombre considérablement accru de résultats potentiels. L’informatique quantique va transformer radicalement beaucoup de secteurs d’activité. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

                                                                                                                                           (Crédits : Quantonation)

 

L’informatique quantique en est encore à ses balbutiements, mais elle a le potentiel de tout révolutionner, de la cryptographie à la découverte de médicaments. Cela pourrait conduire au développement de nouveaux médicaments plus efficaces et ayant moins d’effets secondaires. C’est aussi un défi majeur pour la sécurité informatique. Les chercheurs et les entreprises technologiques devront donc trouver de nouvelles méthodes de chiffrement qui peuvent résister à la puissance des ordinateurs quantiques. Cela pourrait impliquer le développement de nouveaux algorithmes de chiffrement, ou l’utilisation de principes de la mécanique quantique pour créer ce que l’on appelle le « chiffrement quantique ».

Rappelons que les ordinateurs quantiques fonctionnent sur la base de principes clés de la physique quantique :

  • Qubits :
    • La pierre angulaire de l’informatique quantique, les qubits, sont la version quantique des bits binaires classiques. Contrairement aux bits réguliers qui sont soit 0 soit 1, un qubit peut représenter 0, 1 ou les deux en même temps.
  • Superposition :
    • Grâce à la superposition, les qubits peuvent effectuer plusieurs calculs simultanément. C’est ce principe qui donne aux ordinateurs quantiques leur puissance de calcul exponentielle.
  • Intrication :
    • Cet effet quantique permet aux qubits de se lier, de sorte que l’état d’un qubit peut affecter instantanément l’état d’un autre, quelle que soit la distance qui les sépare. Cette propriété permet aux ordinateurs quantiques de résoudre des problèmes complexes plus efficacement que les ordinateurs classiques.
  • Portes quantiques :
    • Les portes quantiques sont des opérations qui peuvent être effectuées sur un ensemble de qubits. Elles ressemblent aux portes logiques de l’informatique classique mais, grâce à la superposition et à l’intrication, les portes quantiques peuvent traiter simultanément toutes les entrées possibles.
  • Les ordinateurs quantiques nécessitent une infrastructure physique importante, refroidissant souvent la machine à des températures proches du zéro absolu et maintenan
  • IBM a démontré que les ordinateurs quantiques pouvaient surpasser les principales simulations classiques .À l’aide du processeur quantique IBM Quantum « Eagle », composé de 127 qubits supraconducteurs sur une puce, ils ont réussi à générer de grands états intriqués qui simulent la dynamique de spin d’un modèle de matériau.
  • L’ordinateur quantique de Google, Sycamore, a accompli une tâche qui aurait nécessité près d’un demi-siècle pour un ordinateur traditionnel.

Avantages du quantique

Les principaux avantages des ordinateurs quantiques sont notamment :

  • Plus rapide:
    • il peut effectuer n’importe quelle tâche plus rapidement par rapport à un ordinateur classique. Parce que les atomes se déplacent plus rapidement dans un ordinateur quantique qu’un ordinateur classique.
  • Précis:
    • sa précision de plus haut niveau le rend adapté à la sécurité nationale et au traitement des mégadonnées.
  • Efficacité énergétique:
    • il gaspille moins d’énergie

Les ordinateurs quantiques ne remplaceront pas les ordinateurs classiques. Il est plus probable qu’ils coexisteront avec leurs homologues classiques, donnant accès aux technologies quantiques lorsque des calculs avancés sont nécessaires. Il y aura une coexistence entre l’informatique classique et l’informatique quantique comme il y a une coexistence des unités de traitement graphique (GPU) et des unités centrales de traitement (CPU) : le processeur exécute la plupart des tâches tandis que le GPU prend en charge les graphiques sophistiqués, le rendu vidéo et, de plus en plus, l’apprentissage automatique.

L’utilisation d’une machine classique restera la solution la plus simple et la plus économique pour résoudre la plupart des problèmes. Mais les ordinateurs quantiques promettent d’alimenter des avancées passionnantes dans divers domaines, de la science des matériaux à la recherche pharmaceutique. Les entreprises expérimentent déjà avec eux pour développer des choses comme des batteries plus légères et plus puissantes pour les voitures électriques, et pour aider à créer de nouveaux médicaments.

Voici quelques chiffres qui résument les grandes tendances du marché de l’informatique quantique :

  • La taille du marché de l’informatique quantique était évaluée à environ 1 milliard en 2022 à 8 milliards de dollars d’ici 2030
  • D’ici 2030, 2.000 à 5.000 ordinateurs quantiques seraient opérationnels étant donné qu’il existe de nombreuses pièces du puzzle de l’informatique quantique, le matériel et les logiciels nécessaires pour gérer les problèmes les plus complexes pourraient ne pas exister avant 2035 ou au-delà.
  • La plupart des entreprises ne seront pas en mesure de tirer une valeur significative de l’informatique quantique avant 2035, bien que quelques-unes verront des gains au cours des cinq prochaines années.

 De nombreux secteurs révolutionnés

L’informatique quantique va révolutionner de nombreuses industries.

Par exemple :

  • La finance
    • L’industrie de la finance et de l’investissement est l’un des secteurs qui pourraient grandement bénéficier de l’IA quantique. Avec la capacité d’analyser de grandes quantités de données en temps réel, les algorithmes d’IA quantique pourraient aider les sociétés financières à prendre des décisions d’investissement plus éclairées et à gérer les risques plus efficacement.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser les tendances du marché et prédire le comportement des actions, des obligations et d’autres instruments financiers.
    • Cela pourrait aider les investisseurs à prendre des décisions plus éclairées quant au moment d’acheter, de vendre ou de conserver leurs investissements.
    • Quantum AI pourrait également aider les entreprises financières à identifier de nouvelles opportunités d’investissement.
    • En analysant de grandes quantités de données, les algorithmes d’IA quantique pourraient identifier les tendances émergentes et les industries prêtes à croître. Cela pourrait aider les investisseurs à entrer au rez-de-chaussée de nouvelles industries et potentiellement gagner des retours importants sur leurs investissements.

 

  • La santé et la biotechnologie
    • Avec la capacité d’analyser des données génétiques et d’autres informations médicales complexes, l’IA quantique pourrait aider à identifier de nouveaux traitements et remèdes contre les maladies.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser de grandes quantités de données génétiques afin d’identifier les causes sous-jacentes de maladies telles que le cancer. Cela pourrait aider les chercheurs à développer de nouveaux traitements qui ciblent les mutations génétiques spécifiques qui causent ces maladies.
    • Quantum AI pourrait également aider les prestataires de soins de santé à personnaliser les traitements pour chaque patient.
    • En analysant les données génétiques d’un patient, les algorithmes d’IA quantique pourraient identifier les traitements les plus efficaces pour l’état spécifique de ce patient. Cela pourrait aider les fournisseurs de soins de santé à fournir des traitements plus efficaces et à améliorer les résultats pour les patients.

 

  • Les chaînes d’approvisionnement et la logistique
    • La logistique et la gestion de la chaîne d’approvisionnement sont un autre domaine qui pourrait grandement bénéficier de l’IA quantique. En optimisant des réseaux logistiques complexes, les entreprises pourraient réduire leurs coûts et améliorer leur efficacité.
    • Par exemple, l’IA quantique pourrait être utilisée pour analyser les routes maritimes et les délais de livraison afin d’identifier le moyen le plus efficace de transporter des marchandises.
    • En analysant les données de vente et d’autres facteurs, les algorithmes d’IA quantique pourraient prédire la demande de produits et aider les entreprises à optimiser leurs niveaux de stocks. Cela pourrait aider les entreprises à réduire gaspiller et améliorer rentabilité .

 

  • La modélisation climatique et environnementale
    • L’IA quantique pourrait également avoir un impact significatif sur la modélisation du climat et de l’environnement . En analysant de grandes quantités de données environnementales, les chercheurs pourraient mieux comprendre l’impact du changement climatique et développer des stratégies pour atténuer ses effets. Par exemple,
    • l’IA quantique pourrait être utilisée pour analyser les données satellitaires afin de suivre les changements du niveau de la mer et de prévoir l’impact de l’élévation du niveau de la mer sur les communautés côtières.
    • L’IA quantique pourrait également être utilisée pour analyser les conditions météorologiques et prédire la probabilité de catastrophes naturelles telles que les ouragans et les tornades.

Principales innovations

Voici quelques-unes des principales innovations dans le domaine de l’informatique quantique :

  • Qubits améliorés :
    • Les qubits, les unités de base de l’informatique quantique, sont les équivalents des bits classiques. Les chercheurs travaillent sur le développement de qubits plus fiables et plus cohérents, capables de stocker et de manipuler l’information quantique de manière plus stable. Différentes technologies sont explorées, comme les qubits supraconducteurs, les qubits à base d’ions piégés, les qubits à base de photons, etc.
  • Augmentation du nombre de qubits :
    • L’échelle et la complexité des calculs quantiques dépendent de la quantité de qubits disponibles. Les chercheurs cherchent à augmenter le nombre de qubits de manière significative pour pouvoir exécuter des algorithmes quantiques plus puissants. Les ordinateurs quantiques avec un grand nombre de qubits permettront de réaliser des calculs inaccessibles aux ordinateurs classiques.
  • Correction des erreurs quantiques :
    • Les systèmes quantiques sont susceptibles d’erreurs en raison de facteurs tels que le bruit, les interférences et les instabilités. La correction des erreurs quantiques est un domaine de recherche actif qui vise à développer des techniques pour détecter et corriger les erreurs quantiques, garantissant ainsi la fiabilité des calculs quantiques sur des systèmes réels.
  • Algorithms quantiques :
    • Les chercheurs travaillent sur le développement d’algorithmes spécifiques conçus pour être exécutés sur des ordinateurs quantiques. Ces algorithmes exploitent les propriétés quantiques pour résoudre des problèmes complexes plus rapidement que les algorithmes classiques. Des exemples d’algorithmes quantiques prometteurs incluent l’algorithme de factorisation de Shor, l’algorithme de recherche de Grover et l’algorithme de simulation quantique.
  • L’utilisation de l’apprentissage automatique quantique et de l’intelligence artificielle quantique :
    • les chercheurs explorent l’utilisation de l’informatique quantique pour développer de nouveaux algorithmes d’apprentissage automatique et d’intelligence artificielle qui peuvent tirer parti des propriétés uniques des systèmes quantiques.
  • Montée en puissance des services cloud quantiques :
    • avec l’augmentation du nombre de qubits et des temps de cohérence, de nombreuses entreprises proposent désormais des services cloud quantiques aux utilisateurs, ce qui leur permet d’accéder à la puissance de l’informatique quantique sans avoir à construire leur propre ordinateur quantique.
  • Avancement de la correction d’erreurs quantiques :
    • Pour rendre un ordinateur quantique pratiquement utile, il est nécessaire de disposer de techniques de correction d’erreurs quantiques pour minimiser les erreurs qui se produisent pendant le calcul. De nombreuses nouvelles techniques sont en cours de développement pour atteindre cet objectif.

Encore à un stage précoce

L’informatique quantique est encore à un stade précoce de développement, et de nombreux défis techniques doivent être surmontés avant que des systèmes quantiques largement utilisables et commercialement viables ne deviennent réalité. Cependant, les progrès continus dans ces domaines d’innovation ouvrent des perspectives passionnantes pour l’informatique quantique dans un avenir proche.