Comment l’intelligence artificielle a déjà changé la guerre

L’intelligence artificielle est devenue une composante incontournable de l’innovation.

Présentée comme un levier de croissance économique et une révolution industrielle, elle suscite, en matière militaire, des critiques et des inquiétudes éthiques et stratégiques.

Alors que le bilan humain ne cesse d’augmenter à Gaza, l’armée israélienne continue sans relâche son offensive. Pour « éliminer » le Hamas, Tsahal utilise des systèmes et des armes de pointe. Ce conflit a offert à l’armée israélienne une occasion sans précédent de déployer des technologies militaires basées sur l’intelligence artificielle (IA) dans un large spectre opérationnel.

« Usine d’assassinats de masse »

Durant les trente-cinq premiers jours de l’offensive, Israël affirme avoir attaqué « 15 000 cibles ». Comparé aux anciennes opérations de l’armée, le nombre de bombardements est colossal. Ces chiffres dépassent de loin ceux des quatre précédentes opérations majeures dans la bande de Gaza réunies. Par exemple, lors de l’opération « Guardian of the Walls » en 2021, Israël a attaqué 1 500 cibles en 11 jours. Pendant l’opération « Bordure protectrice » en 2014, qui a duré 51 jours, Israël a frappé entre 5 000 et 6 000 cibles. Bien loin des chiffres actuels. Pour en arriver à un tel volume de bombardement, Tsahal reçoit un coup de main.

Elle est appuyée par une importante plateforme d’IA : le Habsora (L’Évangile). En gérant d’énormes quantités de données, Habsora recommande les sites de bombardement en temps réel à un rythme effréné. D’après le média +972 qui a enquêté sur cette technologie, Habsora est décrite par un ancien officier du renseignement, comme une « usine d’assassinats de masse » dans laquelle « l’accent est mis sur la quantité et non sur la qualité ».

L’accent est mis sur la quantité et non sur la qualité.

Une fois les informations collectées et les cibles établies, c’est une autre IA qui prend la main. Appelée Fire Factory, elle est utilisée pour optimiser en temps réel les plans d’attaque des avions et des drones. Le système calcule la quantité de munitions requises, attribue les cibles aux différents avions et drones, et détermine l’ordre le plus efficace pour les attaques, comme l’explique Bloomberg. Dans la bande de Gaza, plus de 30 000 personnes, dont plus de 5 000 enfants, seraient morts depuis le 7 octobre.

Smart Shooter « fait de chaque soldat ordinaire un tireur d’élite »

Les troupes au sol sont, elles aussi, dopées à l’IA. Fixé sur l’arme, le viseur de l’entreprise israélienne Smart Shooter, « fait de chaque soldat ordinaire un tireur d’élite », explique Tsahal, l’armée israélienne. Son viseur SMASH 2000 a la capacité de détecter automatiquement les cibles et de les verrouiller, ce qui permet à l’arme de ne faire feu que lorsqu’elle a le plus de chances de toucher sa cible. Utilisé dans la lutte contre les drones, qui pullulent dans les conflits modernes, le système est aussi capable de détecter les êtres humains.

En Cisjordanie, Smart Shooter est justement utilisé par Israël dans cette optique. Au check-point d’Hébron, des tourelles sont équipées d’armes pouvant tirer des balles en caoutchouc et des grenades lacrymogènes. L’intelligence artificielle permet à l’opérateur d’identifier une cible, de la suivre automatiquement et de s’assurer du tir.

En plus du ciel et du sol, l’intelligence artificielle est aussi utilisée dans les souterrains de Gaza. Le réseau de tunnels du Hamas, estimé à plus de 500 kilomètres, est une des priorités d’Israël. Pour les observer, l’armée utilise des petits drones boostés à l’IA, notamment ceux fabriqués par Robotican. Enveloppés dans une cage robotique, ils sont envoyés directement dans les tunnels et sont capables les cartographier et de détecter les humains. Le drone construit alors un modèle 3D de son environnement et y suit sa position sans avoir besoin d’un opérateur humain pour le guider.

L’Ukraine, un autre laboratoire

Si le massacre actuel est devenu un laboratoire d’IA pour Israël, les autres armées du monde ne restent pas les bras croisés face à ces technologies. Dans un conflit différent, en Ukraine, face à l’invasion russe, l’intelligence artificielle est mise à contribution. Pour Robin Louise Fontes, une générale à la retraite de l’armée américaine, qui a servi pour la dernière fois en tant que générale commandante adjointe du United States Cyber Command (USCYBERCOM), « l’IA est utilisée pour analyser des images satellites, mais aussi pour géolocaliser et analyser des données open source telles que des photos de réseaux sociaux ».

Produire des avantages stratégiques et tactiques

L’IA sert aussi, selon elle, au renseignement en combinant « des photos au niveau du sol, des séquences vidéo de drones et des images satellites » afin de « produire des avantages stratégiques et tactiques ». L’Ukraine aurait aussi développé, selon le Fonds monétaire international, « un logiciel de traduction et de reconnaissance vocale basé sur l’IA pour surveiller les conversations non cryptées de soldats et pilotes russes, puis en extraire des renseignements exploitables ».

La modernisation de l’armée française

En France aussi, l’armée travaille activement à intégrer ces technologies de pointe à son arsenal. Le ministère des Armées s’est vu attribuer dès 2019, via la loi de programmation militaire, un budget de 100 millions d’euros par an pour les études et la recherche sur l’IA. En janvier 2023, la start-up française NukkAI, en collaboration avec Thales, a développé une intelligence artificielle capable de fusionner des données provenant de sources totalement différentes. Cette technologie permet à un état-major composé de seulement 15 personnes d’accomplir le même travail qu’un état-major de 100 personnes, selon FranceInfo.

Lors du lancement récent de la coalition « artillerie pour l’Ukraine », le ministre des Armées, Sébastien Lecornu, a confirmé que le canon d’artillerie Caesar de nouvelle génération allait recevoir un peu d’IA dans son électronique. Le gouvernement vient d’en commander 109 pour 350 millions d’euros. La partie intelligence artificielle a été confiée à la société européenne Helsing. Pour l’instant, aucune information détaillée n’a été fournie sur son rôle spécifique. Mais, par exemple, l’IA pourrait permettre au Caesar d’analyser des images provenant de drones, indépendamment des signaux de géolocalisation par satellite, pour pointer sa cible.

Un contrôle à la traîne

Dès 2019, dans son livre blanc sur la défense nationale, la Chine a théorisé l’« intelligentisation » de la guerre, déclarant que l’intégration de l’intelligence artificielle est un pilier essentiel de la stratégie de modernisation. De son côté, le Pentagone utilise aussi des algorithmes pour aider à identifier les cibles des frappes aériennes, selon une enquête de Bloomberg. Tout récemment, ceux-ci ont été utilisés pour mener plus de 85 frappes aériennes dans le cadre d’une mission au Moyen-Orient.

Face à cette poussée de l’IA dans le monde militaire, l’éthique se retrouve au milieu des débats qui opposent ceux qui défendent l’autonomie de l’intelligence artificielle et ceux qui insistent sur la nécessité de la présence humaine à tous les niveaux. Le 22 décembre 2023, à l’ONU, 152 pays ont voté en faveur d’une résolution de l’Assemblée générale sur les dangers des systèmes d’armes autonomes. Quatre ont voté contre (Biélorussie, Inde, Mali et Russie) et onze se sont abstenus.

La résolution 78/241 reconnaît ainsi les « les enjeux de taille et les vives inquiétudes que soulève également, sur les plans humanitaire, juridique, sécuritaire, technologique et éthique, l’utilisation de nouvelles applications technologiques dans le domaine militaire, y compris celles liées à l’intelligence artificielle et à l’autonomie des systèmes d’armes ».

Les mutations technologiques rendent imminent un futur fait de meurtres. M. Wareham

Elle enjoint le secrétaire général de l’ONU, António Guterres, à solliciter les avis des pays membres et observateurs « sur les systèmes d’armes létaux autonomes ». Ces notes devront être intégrées dans un rapport présenté à l’assemblée générale d’ici à septembre 2024. En octobre 2023, avec la présidente du Comité international de la Croix-Rouge, Mirjana Spoljaric, il demandait « aux dirigeants politiques d’imposer d’urgence de nouvelles règles internationales sur les systèmes d’armes autonomes, afin de protéger l’humanité ».

Et d’appeler à « des négociations sur un nouvel instrument juridiquement contraignant visant à établir des interdictions et des limitations claires concernant les systèmes d’armes autonomes et à les mener à terme d’ici à 2026 ». Pour Mary Wareham, directrice du plaidoyer auprès de la division Armes de Human Rights Watch, « les mutations technologiques rendent imminent un futur fait de meurtres automatisés qui doit être empêché ».

** **

Sur le même sujet : «Une intelligence artificielle de confiance doit être socialement acceptable»

Sur le même sujet : «On assiste au nettoyage ethnique de notre peuple»

** **

https://www.politis.fr/