Métaux critiques, en route vers l’indépendance

Métaux critiques, en route vers l’indépendance

OPINION. L’objectif de remplacer 1,5 à 2 milliards de véhicules à moteur thermique par des véhicules électriques à batterie ou hydrogène s’est matérialisé. À l’échelle mondiale, en 2030, le taux de pénétration de ces véhicules sera entre 60 % et 100 %, ce qui nécessite de multiplier les productions par un facteur 10. L’Europe peut contribuer à cette nouvelle production si certaines conditions sont remplies. Par Didier Julienne, Président de Commodities & Resources (*).

Didier Julienne.
                                                                         Didier Julienne. (Crédits : Patrick FITZ / M&B)

 

En décembre 2010, il y a 13 ans, j’étais invité à prononcer une conférence à l’Institut de France devant ses académiciens sur les métaux stratégiques et les terres rares. Elle s’est déroulée le 6 février 2012 et c’était la première fois qu’était annoncé que la transition énergétique faisait basculer notre monde d’une dépendance aux hydrocarbures vers une dépendance aux métaux. Je souhaitais que le monde en prenne conscience parce que je proposais par la suite une solution : la construction de filières industrielles verticales de la production minière à la production de véhicules électriques. Hélas, seule la Chine de l’époque a transformé ce conseil en action.

Depuis, l’objectif de remplacer 1,5 à 2 milliards de véhicules à moteur thermique par des véhicules électriques à batterie ou hydrogène s’est matérialisé. À l’échelle mondiale, en 2030, le taux de pénétration de ces véhicules sera entre 60 % et 100 %, ce qui nécessite de multiplier les productions par un facteur 10.

L’ensemble sera possible avec les ressources naturelles dont nous disposons.

C’est pourquoi, je vous propose de jeter un regard sur l’industrie minière, puis comment les industries consommatrices s’adaptent et enfin de comprendre l’escroquerie intellectuelle construite pour contrer la transition électrique, c’est-à-dire la fake news des «  métaux rares et d’une face sombre de la transition énergétique  » : ses promoteurs et son impact sur les politiques et les entreprises.

Offre : comment se présente l’industrie minière ? Depuis une vingtaine d’années, la production de nickel a été multipliée par 3, celle du cobalt par 5, celle du lithium par 15. Il y a deux manières d’évaluer l’offre mondiale de terres rares : la production globale et les quotas, mais les deux ont été multipliées par environ 3. Compte tenu de ces multiplicateurs, il apparaît ridicule de parler d’une offre contrainte ou rare, puisque lorsque l’on cherche des métaux, on les trouve.

Demande du « game over » statique au « game changer » dynamique

La future demande de ces métaux pour les batteries est appelée par divers prévisionnistes à être multipliée d’ici à 2030 par 7 pour le nickel, par 6 pour le cobalt et 6 pour le lithium et 3 à 10 pour les terres rares suivant les scénarii respectifs de 4 degrés ou 2 degrés.

Ces prévisions sont si alarmistes que des constructeurs automobiles, tel Toyota, qui ont été bernés par l’infox des «  métaux rares et la face sombre de la transition énergétique  », affirment que nous irions vers un «  game over  » électrique.

Pourquoi je ne partage pas ces prévisions ?

  • Tout d’abord, parce que nous avons des ressources minérales inexploitées et contrairement aux rumeurs nous découvrons encore des gisements riches.
  • Deuxièmement, parce la hauteur des chiffres avancés est inexacte. L’industrie des ressources naturelles n’a jamais été en mode « game over », mais en « game changer ». C’est-à-dire qu’elle n’est jamais statique, mais toujours dynamique grâce aux expériences et aux contre-intuitions, grâce aux découvertes et aux innovations orientées vers des consommations de matériaux plus sobres, plus recyclables, plus de substituable et l’ensemble avec les métaux les plus communs et les plus disponibles.

Huit exemples de « game changer »

  • Sobriété & recyclage :

Entre les années 1990 et aujourd’hui, j’ai vu dans mes entreprises une division de la consommation de platine par un facteur de 6 à 7 dans la catalyse automobile, mais aussi des substitutions avec le palladium et un parfait taux de recyclage de ces platinoïdes, le tout avec des normes antipollution de plus en plus strictes. Sans ces progrès il eut été impossible d’avoir autant de voitures moins polluantes.

Dans le même temps, l’industrie du verre voyait la technologie de production de ses appareils en platine-rhodium se moderniser et réduire le poids de métaux précieux utilisés en éliminant des pièces d’alliage de métaux massifs au profit de pièces en électrodéposition. Là encore, avec un parfait taux de recyclage.

Autre exemple de sobriété industrielle, Tesla a réduit la quantité de terres rares dans ses moteurs de 25 % entre 2017 et 2022. En outre, l’entreprise nous indique qu’en passant la tension de ses voitures de 12 volts à 48 volts, le poids de cuivre embarqué dans les câbles de ses véhicules sera divisé par 4. C’est-à-dire équivalent à une voiture thermique.

  • Disponibilité :

Les transferts de technologies minières appliquées à la mine de lithium via l’extraction directe (échange d’ion, adsorption, solvant) ont des perspectives magistrales. Les résultats sont le doublement des quantités extraites et un raccourcissement du processus de production de 18 mois à quelques heures. Sans compter un impact environnemental positif puisque l’eau utilisée est réduite et est utilisée en circuit fermé.

Pourquoi aussi ne pas montrer comment une technologique révolutionne un matériau ? Grâce au progrès scientifique, le diamant de culture peut remplacer le diamant naturel, le paradigme de ce marché du luxe est totalement changé, de la production jusqu’au marketing.

  • Recyclage :

Les métaux des batteries se recyclent, cette chimie des métaux est largement connue. Les investissements sont en route en Europe. La législation européenne impose des métaux recyclés dans les batteries d’ici à 2050, mais cela est déjà effectif et il le sera à grande échelle bien avant.

  • Substituabilité :

De nombreux constructeurs automobiles n’utilisent plus de terres rares dans leurs moteurs électriques : Renault, BMW, Audi, Bentley et bientôt Tesla. En outre, les aimants permanents fabriqués avec des terres rares lourdes et peu communes sont substituables avec des terres rares légères plus courantes voire sans aucune terre rare. Il devient de plus en plus évident que le seul grand marché des aimants permanents sera les éoliennes offshore, à moins que ces dernières ne trouvent des substitutions moins coûteuses, comme l’ont déjà fait les éoliennes terrestres.

Les cathodes des batteries lithium-ion des voitures électriques ont déjà largement évolué vers métaux abondants. En 2008, le marché était dominé par les alliages nickel-cobalt-aluminium, puis sont arrivés les NMC (nickel-manganèse-cobalt) et à présent les alliages fer-phosphate sans nickel ni cobalt utilisé par Tesla, BYD, BMW, etc. La Chine utilise 70 % de LFP (lithium, fer phosphate), l’Europe 30 %, cherchez l’erreur. Comme le dit Solvay : « Copy the best » et la solution la moins onéreuse est toujours celle du « game changer ».

La science n’a pas encore inventé la batterie du futur et sa métallurgie de 2030 ou 2050 est encore inconnue tant les recherches actuelles sont diverses : sodium, agrégats bleu/blanc de Prusse, oxydes métalliques stratifiés, électrolyte solide, céramique, graphène, silicium, nano souffre, etc. C’est pourquoi nous avons besoin que Movin’on construise une première communauté d’intérêts pour concentrer les moyens européens de R&D et une deuxième autour de la mine.

À ce stade, deux idées se dégagent :

  • Les percées technologiques du véhicule électrique de 2050 seront si performantes en termes de matériaux, que ce qu’il est en 2023 est l’équivalent de la Ford T de 1908 par rapport aux moteurs thermiques actuels. Mais si les constructeurs automobiles européens n’évoluent pas rapidement vers les batteries les moins coûteuses, il n’y aura plus que deux constructeurs automobiles : Tesla et la Chine qui produiront chacun la moitié des voitures électriques dans le monde. Forçons notre chance pour qu’un constructeur automobile européen survive !
  • Le scénario du « game over » de la vision statique est inspiré de l’infox des « métaux rares ». Ainsi, l’étude de 2020 de la World Bank sur les métaux critiques mentionne 18 fois l’abréviation NMC, une seule fois LFP ; celle de l’AIE de 2021 mentionne 64 fois NMC et 23 fois LFP.

Fake-news « métaux rares » : politique et entreprise

Passons à l’origine du mal : le canular des «  métaux rares et d’une face sombre de la transition énergétique  ». C’est une mystification puisque les «  métaux rares  » n’existent pas, si ce n’est dans l’esprit de leurs promoteurs. Comme le soulignait un cador de la R&D de l’automobile lorsque quelqu’un prononce «  métaux rares  » on sait qu’il osera tout, qu’il n’y connaît rien, et c’est d’ailleurs à cela qu’on le reconnaît…

Si l’on propose à l’être humain à une situation avec plusieurs inconnues, telle la transition énergétique, il en a peur et une forte proportion d’entre nous se réfugiera instinctivement vers une position statique : une solution qui minimise ce changement pour rester sur un territoire qu’il connaît, même si cela est dangereux. L’infox des « métaux rares et d’une face sombre de la transition énergétique  » a complexifié la transition énergétique en mélangeant à dessein les terres rares qui existent, mais qui ne sont pas rares, et les «  métaux rares  » qui n’existent pas pour instrumentaliser une peur.

  • Cette peur avait une origine : la future baisse de consommation du pétrole.
  • Elle avait un alibi géopolitique, ne pas ouvrir l’économie à une dépendance aux « métaux rares » chinois.
  • Elle avait un objectif, contrer la voiture électrique.
  • Elle avait une stratégie provoquer un mouvement anti-métal et anti-mine.
  • Elle avait des disciples en mal de notoriété : commentateurs, communicants et autres pitres sans aucune compétence métallurgique ou minières.
  • Elle avait un vecteur, l’espace médiatique européen. Celui-ci a largement relayé l’imposture : documentaires, études, reportages, livres (lorsqu’un livre sur les métaux est publié, il faut se demander qui l’a vraiment écrit) et bien sûr la presse. Plus grave, ce matraquage médiatique est devenu une charge mentale insurmontable pour les plus jeunes qui imaginent un monde fini, sans aucune solution, une impasse pour toujours et une vie sans espoir. Encore le 11 mai dernier, un journal ne publiait-il pas que les batteries Li-ion des véhicules électriques contiennent des «  terres rares  » ? C’est inexact. Pourquoi ne dit-il plutôt pas que la science trouve des aimants permanents sans terres rares ? On ne recommandera jamais assez de visionner l’excellent documentaire : « Voiture électrique, la grande intoxication.  »
  • Cette peur avait pour cible des ministres, des élus et la Commission européenne. Je me suis longtemps interrogé comment le personnel politique performait sous l’influence des infox. L’exemple de celle des «  métaux rares  » démontre que leur performance est de mauvaise qualité. Des ministres, des députés ont été bernés par ce wokisme géologique. Le président d’une région française au potentiel métallurgique et minier absolument certain ne déclarait-il pas que la réindustrialisation de sa région ne passerait pas par des mines locales, mais par l’assemblage de pièces métalliques produites à l’autre bout du monde. En refusant l’amont, l’économie de l’aval ne tient pas la route. Au final, il n’y eut ni mines ni assemblage.

De son côté, à la lumière de ses listes de métaux critiques, l’Union européenne a aussi été intoxiquée par l’entrisme des «  métaux rares  ». Inversement, la présidente de la Commission Transport et Tourisme du parlement européen, Karima Delli, n’est plus dans cette fake news lorsqu’elle fustige une pause de la transition énergétique parce qu’elle annonce à Movin’on que 60 % des matériaux produits dans le monde seront consommés (puis recyclés) dans la mobilité.

  • Cette peur avait enfin pour cible les entreprises. Il est impossible de se lasser d’être étonné que des industries aussi matures que l’automobile, l’énergie, la chimie ou la défense aient sombré avec autant de facilité dans le piège de cette mystification sans faire appel à la contradiction, au doute ou à la vérification, bref à une démarche scientifique normale.

Pourquoi l’industrie a-t-elle été si crédule ? Sans doute par peur, par ignorance d’un secteur industriel métallurgique oublié et pour une autre raison anthropologique. Les entreprises ont perdu leurs contre-pouvoirs apportés par l’expérience de la vie. À force de rajeunir leurs équipes en virant les seniors, l’expérience de la vie a disparu des organigrammes et de la gestion du risque. Sans cette maturité, sans ce gravitas, l’entreprise dont les princes sont des enfants s’est affranchie de la remise en cause des communicants et chroniqueurs prêts aux compromissions pour émarger aux millions de dollars du financement de l’infox, elle s’est également affranchie de la vérification des médias qui propageaient le canular en privilégiant le sensationnalisme, l’émotion délétère, la caricature parce qu’ils diffusaient l’intoxication anti-électrique sans examiner, sans étudier le contradictoire, sans regarder les faits, sans s’interroger.

Aujourd’hui, nous avons de nouveau besoin de Movin’on pour construire cette troisième communauté d’intérêts.

Face aux inconnues de la transformation énergétique, il faut dire cette vérité sur le dynamisme de l’industrie et de la science qui s’oppose au statisme médiatique. Oui, nous avons un retard industriel comparé à la Chine, mais oui il y a suffisamment de ressources minérales dans la croûte terrestre pour transformer notre monde avec durabilité.

Les solutions pour dérisquer rapidement la situation sont :

1) ne plus penser les ressources en mode statique médiatique, mais en mode de dynamique industrielle.

2) innover par des mines durables européennes, mais aussi des usines européennes de transformation de minerais en métaux.

3) révoquer les vieilles badernes s’ils ramènent des stratégies défensives, telle celle de l’essence de synthèse. Mais, à l’image des bataillons ukrainiens, l’entreprise doit de nouveau croire dans la sérénité, l’âge et l’expérience des seniors parce qu’ils réduisent l’inexpérience et l’anxiété de réussir des juniors.

4) rester compétitif en orientant la R&D, le progrès technique et l’innovation vers la substitution de métaux critiques par des matériaux abondants, c’est-à-dire vers l’indépendance minérale (**)

 _____

(*) Didier Julienne anime un blog sur les problématiques industrielles et géopolitiques liées aux marchés des métaux. Il est aussi auteur sur LaTribune.fr.

(**) Ce texte est issu de la master class donnée au leadership day de Movin’on le 1er juin 2023.

Les nouvelles batteries seront au cœur de l’activité économique de demain

Les nouvelles batteries seront au cœur de l’activité économique de demain

OPINION. Le monde fonctionne de plus en plus avec des batteries aujourd’hui principalement lithium-ion. Mais plusieurs modèles recourant à des technologies différentes apparaissent. Ils vont contribuer à la croissance économique grâce à de nouvelles applications. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies.

Packs de batteries ion-lithium.
                                                                    Packs de batteries ion-lithium. (Crédits : Reuters)

 

Les batteries vont notamment avoir de plus en plus d’applications dans notre vie quotidienne, ainsi que dans de nombreux secteurs industriels. Il est évident que l’économie de demain fonctionnera avec des batteries.

Par exemple, les véhicules électriques ont déjà dépassé 10 % des ventes mondiales de véhicules en 2022. Ces ventes devraient atteindre 30 % d’ici 2030. Aujourd’hui, la plupart des véhicules électriques sont alimentés par des batteries lithium-ion, une technologie vieille de plusieurs décennies également utilisée dans les ordinateurs portables et les téléphones portables. Les véhicules électriques d’aujourd’hui se rapprochent du prix des voitures à essence et peuvent parcourir des centaines de kilomètres entre les charges. Les nouvelles batteries vont augmenter ces performances.

De nombreuses innovations vont en effet transformer radicalement les batteries avec de nouvelles applications telles que le stockage d’électricité sur le réseau qui peut aider à équilibrer les sources d’énergie renouvelables intermittentes comme l’éolien et le solaire. Un nouveau monde émerge autour de nouvelles batteries.

Voici quelques exemples :

  • Batteries lithium-ion améliorées
    • Les batteries lithium-ion sont largement utilisées dans de nombreux appareils électroniques, des téléphones portables aux voitures électriques. Les chercheurs travaillent sur l’amélioration de leur capacité de stockage d’énergie, de leur durée de vie et de leur sécurité.
    • Des avancées ont été réalisées en augmentant la densité énergétique, ce qui permet d’obtenir une plus grande autonomie pour les véhicules électriques et les appareils mobiles.
  • Batteries à semi-conducteurs :
    • Les batteries à semi-conducteurs sont une nouvelle génération de batteries qui utilisent des matériaux à semi-conducteurs au lieu des électrolytes liquides traditionnels.
    • Elles promettent une densité d’énergie encore plus élevée, une charge plus rapide et une sécurité améliorée. Les batteries à semi-conducteurs pourraient jouer un rôle clé dans l’adoption généralisée des véhicules électriques.
    • Ces batteries ont une conception similaire à celle des batteries lithium-ion, y compris un électrolyte liquide, mais au lieu de compter sur le lithium, elles utilisent le sodium comme ingrédient chimique principal. CATL aurait prévu de commencer à les produire en masse avant la fin de l’année 2023.
  • Les batteries sodium-ion
    • Cette nouvelle technologie permettrait également de réduire les coûts de l’ordre de 20 % environ, avec toutefois une densité énergétique légèrement plus faible que les batteries lithium-ion, impliquant une autonomie légèrement en retrait. Elles bénéficieront en revanche d’une recharge rapide, et devraient permettre de satisfaire la majorité des usages.
  • Batteries à l’état solide :
    • Les batteries à l’état solide utilisent des électrolytes solides au lieu des électrolytes liquides dans les batteries traditionnelles.
    • Elles offrent plusieurs avantages, tels qu’une plus grande densité d’énergie, une meilleure sécurité, une durée de vie plus longue et une recharge plus rapide. Les batteries à l’état solide sont considérées comme l’une des prochaines grandes avancées dans le domaine des batteries au cours des prochaines années.
  • Batteries rechargeables à base de zinc :
    • Les batteries rechargeables à base de zinc sont une alternative intéressante aux batteries au lithium-ion.
    • Le zinc est un matériau abondant, peu coûteux et non toxique. Ces batteries ont une densité énergétique élevée, une meilleure sécurité et une meilleure stabilité thermique.
    • De plus, elles peuvent être recyclées plus facilement que les batteries au lithium-ion.
  • Batteries à flux redox :
    • Les batteries à flux redox utilisent des électrolytes liquides contenant des ions actifs pour stocker l’énergie.
    • Elles offrent la possibilité de stocker de grandes quantités d’énergie à grande échelle, ce qui les rend idéales pour les applications stationnaires telles que le stockage d’énergie solaire et éolienne.
    • Les batteries à flux redox sont connues pour leur longue durée de vie et leur capacité à être rechargées rapidement.
  • Les batteries LFP (phosphate de fer au lithium)
    • Les batteries LFP ont une densité d’énergie inférieure à celle des batteries lithium-ion, mais leur coût est moins élevé et surtout elles n’utilisent ni cobalt, ni nickel, matériaux sensibles aux risques d’approvisionnement et de volatilité des prix.
    • Elles connaitront une forte croissance en Europe et aux États-Unis d’ici à 2030 du fait des prix élevés du cobalt et du nickel.
    • La part de marché des LFP augmente rapidement , passant d’environ 10 % du marché mondial des véhicules électriques en 2018 à environ 40 % en 2022.

 

  • La batterie Prieto
    • La batterie Prieto peut se recharger complètement en trois minutes et peut fournir plus de cinq fois la densité de puissance et jusqu’à trois fois la densité d’énergie des batteries 2D traditionnelles.
    • La batterie peut fonctionner à des températures aussi basses que moins 30 degrés Celsius et à plus de 100 degrés Celsius,
    • Contrairement aux batteries lithium-ion traditionnelles, sa conception 3D garantit que la batterie ne soit pas inflammable.

 

Le rôle clé du noir de carbone et du graphite dans les batteries

Le carbone est utilisé dans les batteries principalement sous forme de graphite, qui est l’un des composants clés des électrodes. Le carbone a le potentiel d’être la prochaine percée dans la technologie des batteries. Son utilisation dans les collecteurs de courant permet notamment d’améliorer le point le plus faible des batteries plomb-acide, à savoir leur faible énergie spécifique.

Voici quelques usages du carbone dans les batteries :

  • Électrodes négatives :
    • Le graphite est couramment utilisé comme matériau d’électrode négative dans les batteries au lithium-ion. Lorsque la batterie se décharge, les ions lithium se déplacent de l’électrode négative (anode) vers l’électrode positive (cathode) à travers l’électrolyte, produisant ainsi un courant électrique.
    • Le graphite est choisi pour sa capacité à intercaler et stocker les ions lithium, ce qui permet une réversibilité des réactions électrochimiques lors des cycles de charge et de décharge.
  • Électrodes positives :
    • Bien que le carbone ne soit pas utilisé comme matériau d’électrode positive dans les batteries au lithium-ion, certains types de batteries, comme les batteries au plomb-acide, utilisent des électrodes positives à base de carbone.
  • Matériau conducteur :
    • Le carbone est un matériau électriquement conducteur, ce qui en fait un choix idéal pour faciliter le transfert d’électrons dans une batterie. Il est souvent utilisé pour recouvrir les électrodes afin d’améliorer la conductivité électrique et d’assurer une distribution uniforme du courant.
  • Amélioration de la stabilité :
    • L’ajout de carbone dans les électrodes peut améliorer la stabilité et la durabilité des batteries. Il peut aider à prévenir la formation de dendrites de lithium, qui peuvent court-circuiter la batterie et entraîner des problèmes de sécurité.
  • Supercapacités :
    • Les supercondensateurs, également appelés supercapacités, sont des dispositifs de stockage d’énergie qui utilisent le carbone sous forme de matériaux poreux, tels que les nanotubes de carbone ou le carbone activé.
    • Ces matériaux offrent une surface spécifique élevée, ce qui permet une plus grande capacité de stockage électrique.

 

Quant aux applications des batteries, on va les trouver partout dans notre vie quotidienne.

Voici quelques-unes des applications qui vont se généraliser :

  • Automobile
    • Les batteries sont essentielles pour alimenter les véhicules électriques (VE) et les véhicules hybrides rechargeables (VHR).
    • Les batteries fournissent l’énergie nécessaire pour propulser le véhicule et alimenter les systèmes électriques tels que les phares, le système de climatisation, l’électronique embarquée, etc.
  • Électronique grand public
    • Les batteries sont utilisées dans une variété d’appareils électroniques grand public tels que les téléphones portables, les tablettes, les ordinateurs portables, les montres intelligentes, les écouteurs sans fil, les caméras, les consoles de jeux, etc. Elles alimentent ces appareils en énergie pour les rendre portables et autonomes.
  • Énergie renouvelable
    • Les batteries sont utilisées dans les systèmes de stockage d’énergie pour les installations d’énergie renouvelable, comme les panneaux solaires et les éoliennes.
    • Les batteries permettent de stocker l’énergie produite pendant les périodes de faible demande ou lorsque les sources d’énergie renouvelable sont actives, puis de la restituer lorsque la demande est plus élevée ou lorsque les sources ne sont pas disponibles.
  • Systèmes d’alimentation de secours
    • Les batteries sont utilisées dans les systèmes d’alimentation de secours, tels que les onduleurs, pour fournir de l’électricité en cas de panne de courant.
    • Les batteries sont utilisées dans les maisons, les entreprises, les centres de données, les hôpitaux, etc., pour assurer un fonctionnement continu des équipements critiques pendant une coupure d’électricité.
  • Stockage d’énergie stationnaire
    • Les batteries sont utilisées pour le stockage d’énergie à grande échelle dans les systèmes de stockage stationnaires.
    • Cela comprend le stockage d’énergie sur le réseau électrique pour équilibrer l’offre et la demande, améliorer la stabilité du réseau et faciliter l’intégration des énergies renouvelables.
  • Équipements médicaux
    • Les batteries sont utilisées dans divers équipements médicaux, tels que les appareils de surveillance, les pompes à perfusion, les respirateurs, les défibrillateurs portables, etc.
    • Les batteries assurent l’alimentation continue de ces dispositifs essentiels dans les environnements médicaux.

Ces exemples ne sont qu’une sélection des nombreuses applications des batteries. En fonction des avancées technologiques et des besoins émergents, de nouvelles applications vont très vite apparaître. On associera de plus en plus batteries à croissance économique et on parlera de plus en plus de batterie (isation) de la société comme on a parlé d’informatisation de la société depuis 1980.

Un autre point important concerne le recyclage des batteries. Les nouvelles voies de recyclage visent à augmenter les taux de récupération des matériaux. Par exemple, la récupération du graphite, un composant qui représente environ 15 à 25 % du poids d’une batterie.

Électricité, décarbonation : pourquoi l’Europe a tout faux


 

Tribune de Brice Lalonde pour Le Point. Le politique énergétique européenne, ses faiblesses et ses méfaits.

TRIBUNE. Brice Lalonde dénonce la cécité d’une politique européenne hémiplégique, centrée sur les renouvelables au détriment des autres sources bas carbone. Brice Lalonde, ancien ministre de l’Environnement, président d’Équilibre des Énergies.

      Il n’y a que quatre pays européens qui réussissent à décarboner leur électricité, ce sont la Suisse, la Norvège, la Suède et la France. Pourquoi ? Parce qu’ils ont des moyens de production pilotables décarbonés qui fournissent cette électricité lorsqu’elle est demandée et quasiment à toute heure au long de l’année. Les autres pays produisent une électricité soit systématiquement très carbonée, comme la Pologne, soit décarbonée par moments, comme l’Allemagne et l’Espagne, quand le soleil et le vent sont au rendez-vous, mais carbonée le reste du temps par appel au gaz et au charbon.

      Or, pour garantir la permanence d’une production électrique décarbonée, l’Europe ne voit que le vent et le soleil, car ces sources d’énergie lui apparaissent illimitées, locales et gratuites. Mais les contraintes imposées au système électrique par les renouvelables intermittentes sont loin d’être gratuites et, pour atteindre avec elles la neutralité carbone, il faudrait à la fois affaler la consommation d’énergie et construire un nombre phénoménal de moyens de production renouvelables. Priorité devrait plutôt être redonnée aux sources décarbonées pilotables, hydraulique et nucléaire, suppléées par les renouvelables.

Une vision de jardin d’enfants

      Les faits sont têtus, les thuriféraires des renouvelables le sont aussi. Leur culte est porté par les prébendiers des aides d’État, par la poussée écologiste des cinquante dernières années, particulièrement forte en Allemagne, mais aussi par la Commission européenne qui applique avec zèle et myopie le seul article du traité de Lisbonne relatif à l’énergie. Alors que le traité reconnaît la souveraineté des États membres pour le choix de leurs sources d’énergie, cet article 194 limite l’action collective de l’Union à la promotion des économies d’énergie et du développement des renouvelables.

      Ainsi les directives du « paquet fit for 55» sont-elles fondées sur cet article 194. Elles n’autorisent que des formes d’énergie – chaleur, électricité, hydrogène – issues de sources renouvelables. Le nucléaire est banni – sauf pour produire de l’hydrogène, grâce à l’action de notre ministre de l’Énergie. Un objectif de plus de 40 % de renouvelables est fixé pour 2030. Au nom du climat et au mépris du traité, l’Europe impose donc le mix de son choix. Il s’agit d’un curieux détournement de procédure, car c’est l’article 191 du traité de Lisbonne qui traite de l’environnement et de la défense du climat. C’est celui-là qui devrait s’appliquer à la politique climatique de l’Union. La Commission veut-elle décarboner ? Pas vraiment, son objectif est la multiplication des renouvelables et la diminution d’un tiers de la consommation d’énergie, une vision de jardin d’enfants.

      Les discours des dirigeants de la Commission sont les mêmes que ceux des ministres allemands : seules les énergies renouvelables sont bonnes. L’avenir doit être tout renouvelable. C’est devenu un credo. Et si l’Europe n’y suffit pas, ils demanderont à l’Afrique de faire l’appoint. Naguère, le Sahara avait déjà été au centre d’un rêve d’énergie solaire illimitée connectée à l’Europe par des câbles sous-marins. C’était le projet Désertec. Cette fois, c’est l’hydrogène fourni par d’hypothétiques électrolyseurs africains ou chiliens qui devrait remplacer le gaz russe. Déjà, les ports de la Baltique s’équipent pour accueillir cette manne chimérique.

L’imposture contre le nucléaire

      L’Allemagne et la Commission peuvent-elles comprendre, non seulement que l’énergie nucléaire est un allié du climat, au contraire du charbon, mais qu’elle constitue un pilier central de l’économie française et de son développement futur. S’efforcer de l’interdire est ressenti par les Français comme une volonté de leur nuire. Faut-il ajouter que l’incroyable volte-face de l’Allemagne contre l’électrification des véhicules légers aggrave encore l’impression d’imposture. L’extravagante raison avancée est l’arrivée prochaine de carburants de synthèse. Mais ces carburants seront produits au compte-goutte et devront d’abord être dirigés vers l’aviation où ils sont indispensables. Ils nécessiteront des quantités considérables d’électricité qu’il faudra bien produire de façon fiable.

      À défaut, il y a fort à parier que l’hydrogène nécessaire provienne surtout du reformage du gaz qatarien, que les carburants des véhicules thermiques épargnés soient fossiles avant d’être synthétiques, bref que l’Allemagne nous roule dans la farine avec la complicité irréfléchie de la Commission. Peut-on toujours croire à la bienveillance de l’Union ? Depuis la loi « Nome », nous avons assisté à la descente aux enfers d’EDF, démantelée, écartelée, sommée tout à la fois de faire des cadeaux à une concurrence parasite, d’atténuer sur ses propres deniers le prix européen de l’électricité pour les Français et, privée des ressources nécessaires, de consentir néanmoins un immense effort d’investissement.

      Le consommateur en fait les frais : difficile de ne pas se souvenir que l’électricité était « abondante et bon marché » avant le marché européen et qu’EDF avait construit cinquante-cinq réacteurs nucléaires en quinze ans sans faire appel à l’aide directe de l’État. Nostalgie ! Si le retour en arrière n’est pas envisageable, limitons au moins les dégâts, arrêtons de désintégrer le système électrique français. La future réforme du marché européen devra permettre de lisser les prix et de financer les investissements.

      L’Europe, paradis des consommateurs, vient de se souvenir qu’il faut aussi des producteurs pour faire un monde. Bousculée par le protectionnisme américain, la Commission vient de proposer un programme d’industrialisation zéro carbone. Huit secteurs prioritaires ont été retenus parmi lesquels les inévitables renouvelables électriques, mais aussi les pompes à chaleur et la géothermie, les électrolyseurs et les piles à combustible, les réseaux, le captage du carbone. Pas le nucléaire, hélas, l’ostracisme continue, sauf pour des réacteurs futurs virtuels. À condition d’être mis en œuvre rapidement, le sursaut européen est salutaire. Toutefois si l’objectif est la décarbonation, l’Union doit laisser les États membres libres de leurs choix techniques et non choisir à leur place. Jusqu’où faut-il accepter les partis pris de la Commission et de ses actes délégués ?

Un groupe « pro-Ukraine » pourrait être l’auteur du sabotage des gazoducs NordStream 1 et NordStream 2

Un groupe « pro-Ukraine » pourrait être l’auteur du sabotage des gazoducs NordStream 1 et NordStream 2

https://www.opex360.com/2023/03/08/un-groupe-pro-ukraine-pourrait-etre-lauteur-du-sabotage-des-gazoducs-nordstream-1-et-nordstream-2/


 

Et si des soupçons pèsent sur la Russie – alors qu’il n’était pas forcément dans l’intérêt de cette dernière de neutraliser les deux gazoducs – aucune preuve n’est venue les étayer. En outre, pour Moscou, ce sabotage ne pourrait avoir été commis que par un pays de l’Otan, notamment le Royaume-Uni et/ou les États-Unis.

En février, le journaliste américain Seymour Hersch est allé dans le sens des autorités russes en affirmant – sans en apporter la moindre preuve – que NordStream 1 et NordStream 2 avaient été sabotés par l’US Navy, avec le concours des forces norvégiennes.

Cela étant, quelques faits sont troublants… Comme la présence d’un avion de patrouille maritime américain P-8A Poseidon sur les lieux quelques temps avant les explosions ayant affecté les deux gazoducs. Signalée par l’agence Reuters, celle-ci a ensuite été confirmée par l’US Navy, qui n’avait manifestement pas d’intérêt à la cacher.

L’appareil en question effectuait un « vol de reconnaissance de routine dans la région, sans rapport avec les fuites des gazoducs Nord Stream », a assuré un porte-parole de la marine américaine. Quant à savoir si des renseignements susceptibles d’être utiles à l’enquête avaient pu être collectés par le P-8A Poseidon, celui-ci a botté en touche. « Nous n’avons pas d’informations supplémentaires à fournir pour le moment », a-t-il dit à Reuters.

Un autre élément a été mis en lumière par l’entreprise américaine SpaceKnow, spécialisée dans l’analyse des données satellitaires. Son Pdg, Jerry Javornicky, a en effet confié au magazine Wired que 25 navires naviguaient dans le secteur au moment des faits… et que deux d’entre-eux, mesurant environ 95 et 130 mètres de long, avaient éteint leur système d’idenfication automatique [AIS], obligatoire pour tout bateau civil, a fortiori dans un endroit aussi fréquenté que la mer Baltique.

« Ils avaient leurs balises éteintes, ce qui signifie qu’il n’y avait aucune information sur leur présence et qu’ils essayaient de dissimuler leurs informations de localisation », a expliqué M. Javornicky, avant de préciser que ces informations avaient été transmises à l’Otan.

Un autre navire était-il présent sur les lieux du sabotage ou bien fait-il partie des deux signalés par SpaceKnow? Toujours est-il que plusieurs médias allemands, dont l’hebdomadaire Die Zeit et les chaînes publiques SWR et ARD, ont affirmé que les enquêteurs avaient identifié un yacht qui aurait probablement été utilisé pour saboter les deux gazoducs. Ce bateau – qui n’a pas été nommé – a été loué par une société établie en Pologne et « appartenant apparemment à deux Ukrainiens ».

Selon l’enquête, six personnes [cinq hommes et une femme, dont des plongeurs] ont pris place à bord. Leur nationalité n’a pas formellement été établie, d’autant plus que des faux passeports ont été utilisés pour louer le yacht. Celui-ci a appareillé de Rostock [Allemagne] le 6 septembre. Puis il a été localisé près de l’île danoise de Christiansø [son AIS était-il allumé à ce moment là?]. En tout cas, le bateau a été ensuite restitué « non nettoyé »… ce qui a permis de trouver des traces d’explosifs dans l’une de ses cabines, écrit Die Zeit.

« Même si des pistes mènent à l’Ukraine, les enquêteurs ne sont pas encore parvenus à déterminer qui a mandaté » l’opération, conclu l’hebdomadaire allemand. Le hasard faisant bien les choses, le même jour, le New York Times a fait état de « nouveaux renseignements » examinés par les autorités américaines…

Et celles-ci suggèrent qu’un groupe « pro-ukrainien », composé « d’opposants à Vladimir Poutine », pourrait être derrière le sabotage des deux gazoducs. Seulement, et sans préciser l’origine de leurs informations, elles ont admis ignorer « beaucoup de choses sur les auteurs du sabotage et leur affiliation » et n’avoir « aucune preuve » sur une implication directe de Kiev.

Si le sabotage des deux gazoducs a été une opération relativement « simple » [NordStream 1 et NordStream 2 reposent à 80/100 mètres de profondeur], il n’en reste pas moins qu’une action de ce genre ne s’improvise pas et qu’elle exige des moyens. Qui les a fourni?

En tout cas, le gouvernement ukrainien a démenti toute participation à ce sabotage. « Bien que j’aime collecter d’amusantes théories du complot sur le gouvernement ukrainien, je dois dire que l’Ukraine n’a rien à voir avec l’accident de la mer Baltique et n’a aucune information sur des groupes de sabotage pro-ukrainiens », a réagi Mykhaïlo Podoliak, un conseiller du président Volodymyr Zelensky, via Twitter.

« Cela ne vient pas de notre action », a assuré Oleksiï Reznikov, le ministre ukrainien de la Défense, en marge d’une réunion avec ss homologues de l’Union européenne à Stockholm… où le Premier ministre suédois, Ulf Kristersson, n’a pas souhaité faire le moindre commentaire sur cette affaire. « Je conseille de ne pas tirer de conclusions hâtives », a, de son côté, affirmé Boris Pistorius, le ministre allemand de la Défense.

Intelligence artificielle : la guerre des normes est déclarée entre la Chine et les États-Unis

Intelligence artificielle : la guerre des normes est déclarée entre la Chine et les États-Unis


Depuis la Seconde Guerre mondiale et a fortiori au cours de la dernière décennie, le sujet de “l’intelligence artificielle” s’est véritablement imposé comme un enjeu technologique clé, conduisant à une course à l’innovation entre acteurs mondiaux. Mais plus encore que de simplement réveiller l’intérêt des startups, des chercheurs, des fonds d’investissement ou des écrivains de science-fiction, l’IA s’impose aussi comme un véritable enjeu de souveraineté politique et géopolitique à travers une guerre des normes effrénée.

Par le Club Influence de l’AEGE

L’IA : une technologie de rupture au centre d’enjeux mondiaux

Par ses promesses d’avenir, l’intelligence artificielle, éveille l’appétit de grandes puissances désireuses d’obtenir un avantage compétitif sur leurs voisins et sur leurs rivaux : l’IA (et toutes les technologies à son pourtour comme le machine learning par exemple) promet ainsi à ses défenseurs de bénéficier de méthodes de traitement de l’information automatisées, une véritable nécessité à l’heure du big data et de l’infobésité, à une époque où les données n’ont jamais été aussi accessibles, mais pourtant aussi difficiles à traiter et à analyser. Dans ce contexte, obtenir une avance sur le développement de l’IA, c’est potentiellement obtenir un avantage exceptionnel dans la sphère cognitive.

Les grandes puissances intéressées par cette promesse se livrent ainsi une véritable guerre sur cet enjeu : Chine, États-Unis, Union européenne, les puissances s’affrontent dans un champ d’activités où tout reste encore à faire. Et au centre de ce “grand jeu”, de cette lutte pour l’IA, se trouve la normalisation. Les États s’appuient sur leurs entreprises (et vice versa) pour dicter le rythme de cette confrontation à coup de normes, trustant autant que possible les places dans les comités de normalisation comme l’ISO ou l’ETSI, allant parfois jusqu’à recourir à des méthodes mafieuses si ce n’est à des barbouzeries. C’est pour mieux comprendre cette guerre des normes sur le sujet de l’IA que l’Agence française des Normes (AFNOR) a commandé au Club Influence de l’École de Guerre économique un rapport, document qui a servi de base à la rédaction du présent article.

La normalisation : un outil d’influence et de conquête des marchés

Dans ce cadre de guerre entre grands acteurs, la normalisation apparaît en effet comme un axe fondamental pour permettre aux acteurs publics et privés d’imposer leurs intérêts. Méconnue, sous-estimée, souvent mal comprise, la normalisation est pourtant un élément fondamental de toute démarche de souveraineté économique et donc un élément central dans toute guerre économique.

D’une certaine façon, tenir la norme c’est tenir le marché. En effet, la norme est à un marché ou une technologie, ce que les règles de grammaire sont à une langue. La norme permet aux acteurs d’un écosystème économique ou technologique de fonctionner selon des standards communs, interopérables. Or, pour un opérateur économique, être capable d’influencer ou d’écrire les règles du jeu auquel il va jouer est un avantage compétitif substantiel.

 La norme s’impose ainsi comme un outil d’influence géopolitique et commercial : elle n’est pas qu’une contrainte qui viendrait brider la créativité et le développement des entreprises au nom de la protection des consommateurs, elle peut aussi être une arme compétitive redoutable pour verrouiller un marché en sa faveur.

Un exemple permet de se rendre compte de l’importance de la normalisation pour la conquête de marchés technologiques : Le cas du conflit entre la « Type 2 » et la « Type 3 », les prises de recharge des voitures électriques en Europe. Les deux prises s’affrontaient pour devenir la norme officielle des prises de recharge dans l’UE. L’une des prises était défendue par les industriels de l’automobile allemands, qui avaient déjà commencé à déployer cette technologie. L’autre prise était défendue par les industriels français, qui avaient aussi commencé le déploiement de leurs propres prises. Réussir à imposer un standard unique de prise aurait donc permis aux constructeurs allemands d’évincer leurs concurrents français, et vice versa.

Dans les faits, c’est ce qui s’est produit : la prise allemande s’est imposée grâce à d’importants efforts de lobbying et de normalisation et elle est désormais le socle de toutes les voitures électriques et hybrides dans l’UE, un véritable revers pour l’industrie automobile française qui s’est donc lancé sur ce marché avec un retard important et qui a dû réajuster toute une partie de sa production pour s’adapter à cette nouvelle norme.

Ce qui est valable dans cet exemple l’est tout autant dans le cadre de l’IA : les différents acteurs de l’intelligence artificielle peuvent espérer verrouiller le marché en leur faveur et donc prendre une avance de long terme sur leur concurrence, cela en imposant leur vision par les normes qu’ils pourraient faire passer via des comités normatifs comme l’ISO. L’enjeu est donc crucial et explique que des pays comme la Chine et les États-Unis s’en saisissent à bras le corps.

Chine et États-Unis : deux stratégies normatives, un seul gagnant

Dans la véritable guerre économique qui fait rage entre les États-Unis et la Chine, la technologie et l’innovation font bien sûr partie des théâtres d’affrontement majeurs : dans cette veine, l’intelligence artificielle prend de fait une place à la mesure des enjeux de cette rivalité sino-américaine.

Une position de leadership dans l’IA permettrait, en effet, au pouvoir chinois de remplir un certain nombre de ses objectifs :

  • D’abord, l’IA permettrait à la Chine d’enfoncer le dernier clou de sa domination industrielle mondiale totale, en optimisant encore plus son circuit productif et ses réseaux de distribution (notamment en automatisant une partie des transports de son projet de Nouvelles Routes de la Soie) ;
  • Ensuite, l’IA permettrait à l’appareil étatique chinois d’accroître encore son appareil de surveillance et de renseignement, qu’il vise à contrôler sa propre population (ex : reconnaissance faciale) ou à espionner des pays voisins (ex : traitement automatisé des données issues d’écoutes, d’interceptions numériques ou de social listening) ;
  • Enfin, l’IA permettrait à la Chine de grandement moderniser les systèmes d’armement de l’Armée populaire de Libération (APL) et donc de prendre une avance importante sur le grand rival américain en répondant à de nombreuses problématiques de l’Armée populaire de Libération (APL).

Mais bien que l’IA soit au cœur de la stratégie de long terme chinoise, l’Empire du Milieu part avec une importante épine dans le pied dans le secteur des nouvelles technologies : les géants américains de la Silicon Valley, pionniers en matière d’innovation, le sont également sur la normalisation, créant des standards de facto pour tenir les marchés totalement captifs.

Cette domination est quasi-totale dans l’innovation industrielle, le cloud, les réseaux sociaux ou l’IT pure. Mais le PCC cherche à éviter que les entreprises américaines ne reproduisent ce schéma sur le secteur naissant de l’IA. La Chine souhaite donc prendre le contrôle sur ce secteur avec une politique de montée en puissance qui s’illustre par certains succès.

Pour contrecarrer cette hégémonie technologique et normative américaine, Pékin a mis de nombreuses ressources à disposition de ses prétentions dans l’IA : sur la période 2019-2020, ce n’est pas moins de 70 milliards de dollars qui ont été attribués à la recherche dans ce domaine par le gouvernement chinois.

Conséquence directe de ce volontarisme de l’État chinois, en 2019, 6 des 11 “licornes” du secteur mondial de l’IA étaient chinoises. La même année, l’Allen Institute for Artificial Intelligence estimait que la Chine dépasserait bientôt les États-Unis en termes de recherche fondamentale sur l’IA : d’ici 2025, le top 1% des articles universitaires sur l’IA sera à majorité composée d’articles chinois. Une course universitaire qui se double bien sûr d’une course aux brevets, selon l’Organisation internationale de la Propriété intellectuelle (WIPO), qui indique qu’au cours de la décennie écoulée, les Chinois ont déposé à eux seuls près de 75% des brevets relatifs à l’IA. Enfin, d’après les chiffres de LexisNexis, Tencent et Baidu, deux entreprises chinoises, sont les deux plus grands propriétaires de brevet sur l’IA, avec en 2021 environ 9600 brevets pour Tencent et 9500 pour Baidu (contre seulement 4000 pour Alphabet par exemple, la maison mère de Google.

Le soutien de l’État chinois à ses grands conglomérats a donc des effets directs très visibles. Mais en plus de ces soutiens aux entreprises et à la recherche, la Chine met en place une véritable offensive normative pour dominer le secteur de l’IA de manière plus structurelle. La stratégie normative chinoise dans l’IA repose ainsi sur deux volets :

  • La création de normes de facto sur l’IA, hors de tous comités normatifs, en devenant les premiers à sortir une innovation, en poussant à son adoption massive tout en ne la rendant pas compatible avec d’autres systèmes informatiques ou d’autres IA. Exemple intéressant de cette stratégie, la Chine compte utiliser ses Nouvelles Routes de la Soie pour diffuser ses normes dans l’IA : un accord chinois de “reconnaissance des normes”, signé depuis 2019 par quarante-neuf pays, prévoit ainsi que la Chine rende incompatibles à son infrastructure de transport tous les navires et trains autonomes étrangers qui ne suivent pas les normes d’interopérabilité chinoises.
  • La création de normes officielles sur l’IA, en se représentant massivement dans les comités normatifs afin de proposer des projets de normes favorables aux intérêts chinois. Pour se faire, la Chine peut s’appuyer sur ses géants du numérique, les BHATX (Baïdu, Huawei, Alibaba, Tencent et Xiaomi), afin d’agir en leur nom (et donc au nom de la Chine) au sein des grands organismes de mondialisations internationaux (ex: ISO, IEC) ou régionaux (ex: ETSI) ; cette stratégie est explicitement décrite dans le plan “China Standards 2035”, soit en Français, “Les Normes chinoises en 2035”.

La stratégie chinoise de domination dans l’IA se fonde donc sur l’innovation technologique, la recherche scientifique et la normalisation massive. Cette stratégie est assumée et semble permettre aux Chinois de creuser l’écart avec le pays de l’Oncle Sam. Mais les États-Unis ne sont cependant pas en reste dans cette guerre ouverte. Le député Cédric Villani, dans un rapport de 2018, est ainsi longuement revenu sur la volonté assumée de Washington de s’imposer comme un leader sur le sujet de l’IA, notamment en utilisant comme arme normative l’avantage incontestable que représentent les GAFAM pour l’Amérique. Comme la Chine, les États-Unis utilisent les normes de facto, mais à un degré encore plus important.

Washington soutient en effet les entreprises de la Silicon Valley afin qu’elles utilisent leur avance dans les secteurs technologiques, afin qu’elles portent l’innovation autour de l’IA et afin que ces découvertes s’imposent ensuite comme normes de facto. Un bon exemple de cette normalisation par le fait accompli est le cas de Google avec TenserFlow. Très innovante et en avance par rapport au reste du marché (et notamment par rapport aux technologies chinoises), cette technologie de deep learning a été adoptée dès le départ par la quasi-totalité du marché, devenant la référence sur laquelle s’est construit tout le reste des technologies de deep learning. Celles-ci sont donc obligées d’être interopérables avec cette technologie américaine de Google. Être le premier à pouvoir fournir l’innovation que tout le monde cherchait, c’est s’assurer la maîtrise de tout le marché présent et à venir en créant une norme de fait.

Une fois ces normes de facto mises en place par les GAFAM (c’est à dire une fois la technologie américaine suffisamment diffusée), l’American National Standards Institute (ANSI) inscrit ces normes et les défend dans les organismes normatifs internationaux, tels que l’ISO et l’IEC, mobilisant des moyens considérables de lobbying pour faire adopter ces normes.

Interrogé par le Club Influence de l’AEGE, Patrick Bezombes, Président de la commission de normalisation IA et Big Data à l’Agence française des Normes (AFNOR), confirme ce lobbying très important des GAFAM américains dans les comités normatifs : “les groupes américains font des milliards de bénéfice par an, ils peuvent donc aisément décider d’investir dans une équipe de cent personnes uniquement pour travailler sur la norme et se projeter dans une vision de long terme sur ce sujet”. Une stratégie coûteuse et donc beaucoup moins accessible à des petits acteurs de l’innovation sur l’IA, telles que les entreprises européennes.

Ce qui apparaît donc clairement, c’est que la stratégie chinoise est assez similaire à la stratégie américaine. En utilisant des entreprises monopolistiques afin de tenir, captive l’innovation technologique, mais surtout afin de mettre en place des normes de facto, les entreprises américaines et chinoises n’ont plus qu’à les faire adopter définitivement en mettant les comités de normalisation devant le fait accompli. Cette approche pragmatique se fonde sur un pur rapport de force et n’est possible que parce que Washington, comme Pékin, peuvent s’appuyer sur leur appareil industriel et leurs fleurons dans la recherche fondamentale. Les acteurs de taille plus modestes, comme la France, ne peuvent pas, faute de moyens, copier cette stratégie. Ils se doivent donc d’appréhender cette confrontation normative soit en choisissant un camp, soit en faisant le pari d’une “troisième voie”, forcément moins offensive.

Quelle place pour la France dans cette guerre normative ?

Avec les deux superpuissances en tête de lice dans la course au leadership pour l’IA, la France est peu à peu en train de prendre conscience que si elle veut exister dans cette compétition, elle va devoir s’appuyer sur l’Europe. Après plusieurs années de retard, Paris semble finalement avoir eu le sursaut nécessaire, une prise de conscience qui s’est traduite par l’adoption au niveau national d’une feuille de route visant à faire de la France un hub clé de la course à l’IA, mais également avec la publication en avril 2021 par la Commission européenne, de l’Artificial Intelligence Act (AI Act).

L’AI Act a pour but premier de créer un cadre juridique strict et clair autour de la technologie qu’est l’IA. La nouveauté de ce document réside dans son approche holistique, à la fois purement juridique, mais aussi plus éthique, avec des enjeux philosophiques ou écologiques.

Mais un autre élément de l’AI Act est passé inaperçu alors qu’il était une caractéristique clé de ce document :  le document de la Commission européenne met en place, dans toute l’UE, une classification des technologies IA corrélés à des risques allant de minimal à inacceptable (4 niveaux). Or, cette classification permettra aux instances européennes d’exercer un véritable contrôle de conformité aboutissant pour les technologies acceptées sur le territoire européen à un marquage « IA de confiance », permettant donc d’exclure du marché commun européen toute IA américaine ou chinoise qui ne respecterait pas les standards européens.

Puissances industrielles de premier ordre, Chine et États-Unis basent logiquement leur stratégie normative sur l’innovation techno-industrielle ; en retard sur ce domaine, la France et l’UE ont fait le choix du responsable et de l’éthique afin de fermer leur marché à des acteurs étrangers.

Mais cela ne doit pas empêcher non plus la France d’avoir une approche de normalisation plus offensive, en envoyant ou en encourageant des industriels français à rejoindre les comités de normalisation en tant que project leader sur des sujets précis, mais aussi plus largement en produisant un lobbying au sein des votes de ces comités afin de faire passer des textes favorables aux entreprises et citoyens européens. La France, pays qui a longtemps été en pointe de la recherche et de l’innovation (4e pays au monde en nombre de prix Nobel), doit aussi renouer avec ses origines et encourager plus largement la recherche dans l’IA dans ses établissements d’excellence afin de déposer des brevets qui conduiront à des normes de facto d’origine française.

Et la France ?

Utilisés de manière complémentaire, les brevets et la normalisation permettent à la fois de protéger notre marché et nos technologies, mais aussi de diffuser ces dernières. Ces deux vecteurs alimentent donc le même objectif unique : la compétitivité.

Il faut se rappeler que cette approche à la pointe de l’innovation et de la normalisation, la France a déjà su en tirer profit au cours de son histoire, par exemple pour les piles à combustible, l’hydrogène, les technologies du nucléaire, mais aussi pour la norme “GSM”, qui sert encore de base aujourd’hui à la téléphonie portable mondiale. C’est cette stratégie qui a en partie permis au pays de rester compétitif dans ces domaines hautement disruptifs. Ainsi, l’Hexagone a tout intérêt à passer le pas et à employer des stratégies similaires de normalisation dans l’Intelligence artificielle.

Surtout, la France n’est pas seule dans cette guerre entre deux grandes puissances : Paris dispose d’alliés nombreux qui peuvent agir à ses côtés : en utilisant ses alliés européens comme tremplin et ses partenaires africains comme atout, la France a véritablement les moyens de porter une politique d’encerclement normatif qui permettra de protéger le pré-carré français et européen en termes d’innovation sur l’IA. Ainsi, bien que la France ne dispose pas à ce stade du tissu industriel suffisant pour concurrencer Washington et Pékin en termes de normalisation active, elle peut néanmoins utiliser la normalisation à des fins “défensives”, pour protéger le marché européen des appétits des deux grands empires. Ce protectionnisme économique par la normalisation, en limitant et en conditionnant l’accès au marché (français, mondial et européen selon certains critères), permettra aussi de protéger les jeunes pousses et autres projets innovants qui viendront peut-être concurrencer les GAFAM et autres BAHTX à très long terme.

La France se doit donc de se jeter dans la bataille normative contre ses grands adversaires internationaux, mais cela implique de rallier à sa cause les industriels, les entreprises, les think tanks, les centres de recherche, les chefs d’entreprise et les autres acteurs européens désireux de s’investir dans le champ normatif.

Ce que nous apprend l’analyse de 18 000 éoliennes allemandes sur leur véritable efficacité énergétique

Ce que nous apprend l’analyse de 18 000 éoliennes allemandes sur leur véritable efficacité énergétique

Une photo prise le 5 octobre 2022 montre des éoliennes devant la centrale électrique de Niederaussem exploitée par le géant allemand de l’énergie RWE près de Niederaussem, dans l’ouest de l’Allemagne.

 

La rédaction du Neue Zürcher Zeitung a évalué les facteurs de charge de près de 20.000 éoliennes en Allemagne. Comment expliquer leur manque d’efficacité ?

Philippe Charlez -Atlantico Green – publié le 13 novembre 2022

https://atlantico.fr/article/rdv/ce-que-nous-apprend-l-analyse-de-18-000-eoliennes-allemandes-sur-leur-veritable-efficacite-energetique-environnement-transition-energetique-planete-solutions-energie-electricite-crise-energetique-alternatives-reformes-philippe-charlez


Atlantico : Le Neue Züricher Zeitung a évalué les facteurs de charge[1] de 18.000 éoliennes allemandes. Beaucoup s’avèrent inefficaces. Quelles sont les explications à ce manque d’efficacité ?

Philippe Charlez : Les différentes sources d’électricité peuvent se classifier en deux catégories : les pilotables et les non pilotables. Retenons que l’électricité pilotable est fabriquée à partir d’énergies de stock (charbon, fuel, gaz, nucléaire, biomasse) alors que l’électricité non-pilotable est fabriquée à partir d’énergies de flux (rayonnement solaire, vent).La différence est notoire : l’électricité pilotable peut être produite « combien on veut », « où on veut »[2] et « quand on veut » alors que l’électricité non pilotable n’est pas maîtrisable dans la mesure où c’est la nature qui décide « combien, où et quand »

N’étant soumis à aucun aléa naturel, les sources pilotables peuvent produire sur l’année de l’électricité à puissance nominale entre 80% et 90% du temps.Dépendant du remplissage du lac de retenue, ce chiffre tombe à 30% pour l’hydroélectricité. Pour l’éolien terrestre (2000 heures de vent en France) et le solaire photovoltaïque (1200 heures de soleil) ils sont seulement de 23% et 14%[3]. Au faible « facteur de charge » des renouvelables (combien !) vient se superposer le concept d’intermittence (quand !). Non seulement le vent et le soleil ne fournissent de l’électricité que durant des périodes de temps très limitées mais, de surcroit, ces périodes sont intermittentes et difficilement prévisibles. Ainsi en hiver aux heures de pointe du matin et du soir quand la consommation d’électricité est maximale, en cas d’anticyclone polaire il n’y a ni vent ni soleil. Et augmenter la capacité n’y change rien. 

L’institut Neue Züricher Zeitung[4] a modélisé à partir de conditions météo 18000 des 28000 éoliennes présentes sur le sol allemand et ce sur une période de dix ans. L’étude montre que 25% des éoliennes ont un facteur de charge inférieur à 10% tandis que seulement 15% ont un facteur de charge excédant 30%. Des chiffres légèrement inférieurs à ceux observés en France depuis une vingtaine d’années. En 2021 le facteur de charge moyen de l’éolien allemand était de 20,8%[5]

En observant certaines cartes on réalise que la position géographique a son importance. Comment expliquer cette situation ?  Choisit-on les endroits optimaux pour installer les éoliennes ?

Comme expliqué ci-dessus, la nature ne décide pas seulement « combien » et « quand » mais aussi « où » l’électricité éolienne sera produite. L’étude du NZZ montre clairement que 83% des éoliennes à taux de charge élevé (>30%) se trouvent le long de la côte Baltique. Rien de très surprenant : le vent souffle beaucoup plus fortement le long des côtes (points verts sur la carte) qu’à l’intérieur des terres (points rouges). En toute logique, il faut donc privilégier la bande côtière mais proscrire l’intérieur des terres où l’éolien est très peu efficace. Mais, cela pose deux problèmes de fond. Davantage protégée sur le plan environnemental et bénéficiant d’activité touristiques, la bande côtière est moins adaptée au développement massif d’éoliennes d’autant que leur installation rencontre de fortes oppositions sociétales. Mais surtout ce n’est pas dans le nord de l’Allemagne mais dans la Ruhr et en Bavière que se situe l’essentiel de la demande électrique où elle est trois fois plus élevée. Il a donc été nécessaire de construire de nouvelles lignes haute tension reliant les éoliennes du Nord aux régions de grande consommation du Sud.

Lorsque l’on compare ces résultats à l’investissement fait, ne faudrait-il pas placer ces fonds dans d’autres domaines qui se révèlent plus intéressants ?

Après avoir investi près de 800 milliards d’euros dans les renouvelables (et ce principalement dans l’éolien) depuis le début de l’Energiewende, l’Allemagne se retrouve aujourd’hui dans une situation énergétique catastrophique.L’éolien (20%) et le solaire (8%) couvrant moins de 30% de la demande électrique, la sortie du nucléaire a obligé l’Allemagne à choisir le gaz russe pour pallier les intermittences des renouvelables avec notamment la construction des deux gazoducs Nord Stream 1&2 inopérants par suite du sabotage à l’explosif fin septembre 2022. L’Allemagne est aujourd’hui obligée de rouvrir de vieilles centrales à charbon et d’importer du charbon chinois pour replacer le charbon russe ! Est-elle prête pour autant à faire marche arrière et reconnaître ses erreurs ? 

En termes de sécurité industrielle, les progrès reposent d’abord et avant tout sur une reconnaissance et une analyse des erreurs passées. Sans un minimum de repentance personne ne vous suivra, aucun progrès ne sera possible et les mêmes accidents se reproduiront. Le Général de Gaulle n’avait-il pas écrit dans ses mémoires « il n’y a de réussite qu’à partir de la vérité »[6]

Hélas ceux qui refusent de reconnaître leurs erreurs se transforment souvent en cyclomanes compulsifs persévérant dans leur tartuferie. La politique possède cette historique constance à considérer que « ce qui ne marche pas résulte du fait qu’on n’a pas été assez loin ni assez fort »[7]. Ainsi, Mao Tsé Tung responsable de la mort de plusieurs millions de ses concitoyens durant le Grand Bond En Avantpersévéra en lançant sa sinistre stratégie avec la Révolution Culturelle. Il fallut alors de nombreuses années aux idolâtres maoïstes pour reconnaître à contre cœur que le Grand Timonier était le plus grand criminel de l’Histoire. 

On ne voit aujourd’hui aucun changement de stratégie ni au niveau Allemand ni au niveau européen. Les stupides agendas inversés continuent d’inoculer notre quotidien pour le meilleur et pour le pire. Il est ainsi toujours gravé dans le marbre que grâce aux renouvelables les émissions européennes se réduiront de 55 % à l’horizon 2030 mais aussi que l’avenir de la mobilité réside dans le « tout électrique ». De la science idéologique digne de celle que Trofim Lyssenko avait imaginé durant les heures les plus sombre de l’Union Soviétique pour satisfaire les agendas inversés de à Staline !

[1] Le facteur de charge est le rapport entre l’énergie annuelle produite par une installation et celle qu’elle aurait produite si elle avait constamment fonctionné à puissance nominale. Ainsi, une installation d’une puissance nominale de 1GW possédant un facteur de charge de 100% produira sur une année sur une année (8760 heures) 8,76 TWh

[2] Il y a toutefois certaines contraintes. Ainsi une centrale nucléaire doit être construite en proximité d’une source d’eau pour assurer le refroidissement continu des réacteurs

[3] https://www.realisticenergy.info/transformations/FCha/#:~:text=L’hydraulique%20a%20un%20facteur,charge%20de%2020%20et%2010%25.

[4]https://www.nzz.ch/visuals/windkraft-in-deutschland-grosse-versprechen-kleine-ertraege-ld.1710681

[5] Source des données BP Statistical Review 2022

[6]http://evene.lefigaro.fr/citation/reussite-partir-verite-33002.php

[7]https://www.contrepoints.org/2022/10/24/441391-crise-energetique-lexecutif-remet-une-couche-de-transition-vers-le-neant