L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle

13 août 2023

Temps de lecture : 5 minutes

Photo : Terminator 3, 2003. REX FEATURES/SIPA. Numéro de reportage : REX43083313_000002

Abonnement Conflits

L’ONU veut réguler l’intelligence artificielle militaire mais se heurte au principe de réalité concurrentielle

par

L’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) a eu lieu le 18 juillet 2023. Le Secrétaire Général des Nations Unies, Antonio Guterres a souligné les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de l’agriculture et de la résolution des grands problèmes environnementaux.

Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui, « l’utilisation malveillante de systèmes d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable ». Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes.

Il faut tout d’abord saluer l’initiative du Conseil de Sécurité et l’organisation de cette réunion inaugurale car les révolutions IA-robotique vont transformer en profondeur l’ensemble des activités humaines. Il est donc important que les grandes puissances et les puissances secondaires puissent échanger librement au sein de l’ONU, et débattre sur les enjeux et les défis de l’IA.

Le volet militaire de l’IA nous fait a priori passer du « côté obscur de la Force ». La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes. Les trois premières puissances militaires (USA, Chine et Russie) ont indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA tout en précisant que ces systèmes devaient rester sous le contrôle humain. Derrière ces premières déclarations, Il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.

A lire aussi

Chat GPT réactivé en Italie. Risques et opportunités de l’IA

1 – Les quatre principes de réalité systémique de l’IA

Concrètement, la déclaration du Secrétaire Général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès technologique au bénéfice des activités humaines, civiles et militaires :

Principe n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.

Principe n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;

Principe n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.

Principe n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.

2 – L’intelligence artificielle comme moteur de la haute intensité du combat

Les applications militaires de l’intelligence artificielle s’inscrivent dans toute la largeur du spectre opérationnel et renforcent les dynamiques de haute intensité au combat

  • Renseignement : collecte, traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille documentaire.
  • Logistique : préparation de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
  • Simulation : simulation de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
  • Conduite des opérations, IA C2 : Aide à la décision pour les centres de commandement et contrôle (IA C2), reporting, tests et validation d’hypothèses de manœuvres, tests d’impact et d’attrition au regard de l’intensité du combat
  • Systèmes robotisés armés : Augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux d’autonomie L0,L1,…L5
  • Cybersécurité et cyberdéfense : Emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
  • PsyOps, opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées pour tromper ou influencer une cible.

3 – Les grands défis de l’IA militaire

La robotisation du champ de bataille, la préservation du sang du soldat humain, la réduction temporelle des toutes les étapes de la boucle OODA [O – Observe (observer), O – Orient (orienter), D – Decide (décider), A – Act (agir)], et la recherche de haute intensité au combat sont des objectifs prioritaires pour toutes les armées du monde. Chacun de ces objectifs s’appuie sur les progrès des sciences et technologies, en particulier sur ceux de l’intelligence artificielle qui apporte l’autonomie, la précision et la vitesse de réaction dans les systèmes. Si les défis de l’IA militaire sont multiples, deux d’entre eux apparaissent désormais comme prioritaires en retour d’expérience notamment de la guerre russo-ukrainienne :

Défi n°1 – l’IA-C2 (Command & Control) : l’IA intégrée au sein du système de commandement permet de prendre en compte l’ensemble des données qui remontent du terrain, du renseignement, des capteurs déployés, des unités à engager ou déjà engagées. L’apport de l’IA réside dans sa capacité à tester des hypothèses de manœuvre, à en mesurer les effets sur l’ennemi et sur ses forces, à évaluer le risque associé à une action militaire. La simulation numérique intégrant de l’apprentissage automatique et de l’apprentissage par renforcement donne la possibilité de jouer une séquence opérationnelle, de modifier ses paramètres, de rejouer la séance et de converger vers une solution optimale pour le chef militaire qui en tient compte dans son arbitrage.

Défi n°2 – l’IA embarquée dans les escadrilles et essaims de robots aéroterrestres : La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition sur les chars et blindés des deux belligérants. Les premières escadrilles de munitions téléopérées navales ont été déployées par l’armée ukrainienne contre les navires russes. Des drones kamikazes sont régulièrement utilisés dans la profondeur par les deux armées. Ainsi, la question de la lutte anti-drones (LAD) devient prioritaire tout en restant techniquement complexe. L’avantage restant à l’attaquant, le défi de la LAD repose avant tout sur les capacités de détection, de suivi et de neutralisation des vecteurs ennemis. L’intelligence artificielle apporte des solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien « anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.

A lire aussi

Robotique terrestre. Déjà une réalité sur les champs de bataille, encore un défi collectif

Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de Milliards de dollars) en Chine et aux Etats-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les Etats-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi. Le Secrétaire Général de l’ONU mesure parfaitement l’importance des enjeux géopolitiques qui accompagnent le développement de la robotique militaire. Il aura par contre toutes les difficultés à obtenir un moratoire ou un encadrement sur ce type d’armes.

Mots-clefs :

Vous venez de lire un article en accès libre

La Revue Conflits ne vit que par ses lecteurs. Pour nous soutenir, achetez la Revue Conflits en kiosque ou abonnez-vous !

À propos de l’auteur
Thierry Berthier

Thierry Berthier

Pilote du groupe Sécurité – Défense – Intelligence Artificielle du Hub France IA

Voir aussi