La Marine nationale veut gagner la guerre acoustique
Franck Alexandre – RFI – Publié le
L’Intelligence artificielle s’invite dans tous les segments du combat moderne : notamment pour une meilleure lecture du champ de bataille et désormais l’IA s’impose aussi sous l’eau… La Marine nationale les appelle les oreilles d’or, ce sont les analystes capables d’identifier les sons captés sous la surface de la mer, l’IA va bouleverser leur métier, l’objectif : aller vite pour gagner la guerre acoustique.
Tac tac tac tac tac tac… Ce son régulier, c’est le bruit d’un pétrolier tel qu’on l’entend sous l’eau, un bruit caractéristique. L’oreille d’or d’un sous-marin pourrait dire que l’hélice de ce navire est composée de cinq pales et que sa ligne d’arbre tourne à 120 tours/minutes. Des informations cruciales pour la Marine de guerre, en particulier pour la sous-marinade, souligne le capitaine de frégate Vincent Magnan, commandant du centre d’interprétation et de reconnaissance acoustique, le Cira à Toulon.
« Il se passe énormément de choses sous le dioptre, comme on dit dans notre milieu. Pour vous donner des exemples très précis, un bâtiment de commerce est entendu par le sonar d’un sous-marin d’une frégate, notamment par ce qu’on appelle le bruit rayonné, qui peut être composé de plusieurs types de sons. Un des sons caractéristiques, c’est ce qu’on appelle le nombre de Tours Minute d’arbre, c’est-à-dire la vitesse de rotation de la ligne d’arbre qui propulse le navire auquel est aussi associé à un nombre de pales. Et lorsqu’on maîtrise cette information-là, on sait quelle est la vitesse du bateau que l’on recherche. Et en fonction de la vitesse de ce bateau, on est capable de mettre en place une idée de manœuvre. Et donc la vraie réflexion, c’est de se dire que la guerre acoustique passive permet en toute discrétion, sans élever le niveau de crise, de capter des informations techniques dont découlent des conclusions tactiques décisives pour les opérations. »
Et c’est d’autant plus important pour un sous-marin qui par définition est aveugle, or les capteurs acoustiques sont de plus en plus puissants et par conséquent les oreilles d’or sont confrontées à une inflation de données, souligne le commandant Magnan.
« Au début des années 2000, un opérateur Sonar disposait d’un équipement qui lui permettait d’entendre à environ 20 km et de traiter simultanément une dizaine de contacts acoustiques. Aujourd’hui, on est plutôt sur des sonars capables de détecter jusqu’à presque 200 km et permettent de traiter simultanément presque une centaine de pistes acoustiques. Ce qui fait qu’effectivement le volume de données à traiter, s’est considérablement augmenté. La conséquence directe et que pour les oreilles d’or à la mer, pour l’analyse de tous ces contacts acoustiques, il y a un engagement humain qui est beaucoup plus important qu’auparavant. »
Les algorithmes de Preligens
L’intelligence artificielle va permettre de discriminer les sons beaucoup plus rapidement. Et c’est là qu’intervient une pépite française, Preligens, bien connue pour ses analyses d’images spatiales, l’entreprise a mis ses algorithmes au service de la guerre acoustique. Un démonstrateur a vu le jour l’an dernier, avec une première expérience. Douze jours durant, la Marine a enregistré tous les bruits de la mer au large de Toulon.
« Ces 12 jours-là ont nécessité d’être annoté pour pouvoir entraîner des algorithmes d’intelligence artificielle. Il nous a fallu presque une quarantaine de jours pour annoter ces 12 jours de travaux », souligne Vincent Magnan. « Désormais, avec l’algorithme et les démonstrateurs obtenus, on injecte 12 jours d’enregistrements acoustiques dans la machine, et en quatre heures à peu près, la machine nous sort les phases sur lesquelles les analystes peuvent aller apporter leurs compétences métier. Ce qui signifie que de 40 jours initiaux, on est passé plutôt à 5-6 jours. L’objectif, c’est être capable d’analyser de plus en plus de données. En 2020, le CIRA recevait annuellement environ un téraoctet de données. En 2024, on est plutôt sur 10 téraoctets de données acoustiques. On dépassera certainement les 100 Terra à l’horizon 2030. »
Mais l’IA ne peut pas tout, les oreilles d’or seront toujours décisives, assure Vincent Magnan. « C’est bien l’objectif de dire qu’une fois qu’on a vu un bateau, on sera capable de le revoir à chaque fois qu’il rentrera dans notre volume de détection. À la nuance près, qui est quand même très importante et qui rend l’application de l’intelligence artificielle assez complexe, c »est que le même bateau, vu en Méditerranée en janvier et vu en Atlantique Nord en décembre, ne fera pas le même bruit. Parce que l’environnement acoustique aura changé, parce que peut-être que les paliers de sa ligne d’arbre auront été abîmés ou auront été corrodés, peut-être parce qu’il y aura des concrétions sur sa coque, qui modifieront sa cavitation. Et donc le bruit rayonné ne sera pas tout à fait le même. Et c’est pour ça qu’aujourd’hui, si l’intelligence artificielle permet de détecter globalement les grandes caractéristiques d’un bateau, il faudra aussi le savoir-faire de l’homme pour aller chercher vraiment les éléments discordants par rapport à une interception précédente par exemple. »
Les oreilles d’or sont rares, il n’y a pas plus d’une trentaine d’analystes dans la Marine. L’IA va leur permettre de se concentrer sur les écoutes d’intérêts, quant à la machine, elle permettra d’écarter les bruits des crevettes et des cachalots.