IA génocidaire

Comment Israël automatise les violations des droits de l’homme et les crimes de guerre

La guerre d’Israël contre Gaza a montré qu’à côté de systèmes d’IA avancés échappant au contrôle humain (des « robots tueurs », entièrement automatisés), des systèmes de surveillance par IA bien plus banals et peu sophistiqués sont déjà utilisés pour déclencher des horreurs dystopiques, dictées par la technologie. 

L’ONG internationale Access Now dont nous avons déjà relayé des articles) a beaucoup documenté la guerre que mène Israël contre la population de Gaza. Ci-dessous un article de synthèse qui montre en quoi le détournement de technologies de surveillance assez classiques (Israël en est un des tout premiers fournisseurs, dans nos villes françaises) sert à l’automatisation des massacres de la population gazaouie. Nous y ajoutons (entre []) diverses informations.

Comme l’ ont révélé de récentes enquêtes médiatiques , les systèmes de ciblage israéliens par IA « Lavander«  et « The Gospel » [voir aussi Gaza : tuerie par IA qui détaille les différents systèmes utilisés] automatisent les massacres et les destructions de masse dans la bande de Gaza. C’est l’apothéose de nombreuses pratiques abusives liées à l’IA, telles que les systèmes de surveillance biométrique et les outils de police prédictive, contre lesquelles nous avons déjà mis en garde.

La guerre renforcée par l’IA à Gaza démontre l’urgence pour les gouvernements d’interdire l’utilisation de technologies incompatibles avec les droits humains, en temps de paix comme en temps de guerre.

La mort venue d’en haut : Gaza, un laboratoire technologique expérimental

L’utilisation de l’IA par Israël à des fins militaires n’est pas nouvelle. Depuis des décennies, Israël utilise la bande de Gaza comme terrain d’essai pour de nouvelles technologies et armes , qu’il vend ensuite à d’autres États. Son bombardement militaire de 11 jours sur Gaza en mai 2021 a même été qualifié par les Forces de défense israéliennes (FDI) de « première guerre de l’intelligence artificielle« . Lors de l’assaut actuel contre Gaza, Israël a utilisé trois grandes catégories d’outils d’IA :

  1. Systèmes d’armes létales autonomes (SALA) et armes semi-autonomes (semi-SALA) : l’armée israélienne a été pionnière dans l’utilisation de quadricoptères télécommandés équipés de mitrailleuses et de missiles pour surveiller, terroriser et tuer les civils réfugiés dans des tentes, des écoles, des hôpitaux et des zones résidentielles. Les habitants du camp de réfugiés de Nuseirat à Gaza rapportent que certains drones diffusent des cris de bébés et de femmes afin d’attirer et de cibler les Palestiniens. Depuis des années, Israël déploie des « drones suicides« , des « snipers robotisés » automatisés et des tourelles pilotées par l’IA pour créer des « zones d’élimination automatisées«  le long de la frontière avec Gaza. En 2021, il a également déployé un robot militaire semi-autonome baptisé « Jaguar« , présenté comme « l’un des premiers robots militaires au monde à pouvoir remplacer les soldats aux frontières« .
  2. [S’y sont ajoutés depuis mai 2024 des « véhicules militaires explosifs », à partir de véhicules blindés de transport de troupes M113 américains convertis en robots télécommandés. A la place des sièges ont été placés de grandes quantités d’explosifs (environ 7 tonnes), avec deux configurations : l’une vise une destruction complète et un incendie dans un rayon de 50 mètres ; l’autre, une destruction partielle dans un rayon de 150 mètres.]
  1. Systèmes de reconnaissance faciale et surveillance biométrique : l’invasion terrestre de Gaza par Israël a été l’occasion d’ étendre sa surveillance biométrique des Palestiniens, déjà déployée en Cisjordanie et à Jérusalem-Est. Le New York Times a rapporté comment l’armée israélienne utilise un système de reconnaissance faciale à grande échelle à Gaza « pour y mener une surveillance de masse, collectant et cataloguant les visages des Palestiniens à leur insu et sans leur consentement« . Selon le rapport, ce système utilise les technologies de l’entreprise israélienne Corsight et de Google Photos pour identifier les visages dans la foule, et même sur des images de drones granuleuses.
  2. Systèmes automatisés de génération de cibles : notamment The Gospel, qui génère des cibles infrastructurelles, Lavender, qui génère des cibles humaines individuelles, et Where is Daddy ?, un système conçu pour suivre et cibler les militants présumés lorsqu’ils sont chez eux avec leur famille.

Les SALA, et dans une certaine mesure les semi-SALA, ont été condamnés par l’ONU comme étant « politiquement inacceptables et moralement répugnants« , et les appels à leur interdiction se multiplient. L’utilisation de systèmes de génération de cibles par l’IA en temps de guerre, associée à la surveillance biométrique de masse, mérite une attention accrue, car elle démontre l’impact dévastateur, voire génocidaire, en temps de guerre de technologies qui devraient déjà être interdites en temps de paix.

Automatisation du génocide : les conséquences fatales de l’IA dans la guerre

Bien qu’ils puissent sembler à première vue une nouvelle frontière choquante, l’utilisation de systèmes de ciblage tels que The Gospel ou Lavender n’est en réalité que l’apogée d’un autre système d’IA déjà utilisé dans le monde entier : la police prédictive.

Tout comme l’armée israélienne utilise des « systèmes basés sur les données » pour prédire qui pourrait être un agent du Hamas ou quel bâtiment pourrait être un bastion du Hamas, [les forces de l’ordre de nombreux pays (dont la France)] utilisent des systèmes d’IA pour prédire quels enfants pourraient commettre un crime ou appartenir à un gang, ou encore où déployer des forces de police supplémentaires.

Ces systèmes sont intrinsèquement discriminatoires et profondément défaillants , avec de graves conséquences pour les personnes concernées. À Gaza, ces conséquences peuvent être fatales.

Lorsque nous examinons l’impact de tels systèmes sur les droits humains, nous devons examiner les conséquences, d’une part, de leur dysfonctionnement et, d’autre part, de leur fonctionnement escompté. Dans les deux cas, réduire les êtres humains à des données statistiques a des conséquences graves et irréversibles pour la dignité, la sécurité et la vie des personnes.

En ce qui concerne les dysfonctionnements des systèmes de ciblage, une préoccupation majeure réside dans le fait que ces systèmes sont conçus et entraînés à partir de données erronées. Selon l’enquête du magazine +972, les données d’entraînement introduites dans le système comprenaient des informations sur des employés non combattants du gouvernement Hamas de Gaza, ce qui a conduit Lavender à identifier par erreur comme cibles des individus ayant des comportements similaires à ceux de militants connus du Hamas.

Parmi ces individus figuraient des policiers et des agents de la protection civile, et même des individus portant simplement le même nom que des agents du Hamas.

Comme l’ a rapporté le magazine +972, même si Lavender affichait un taux d’erreur de 10 % lors de l’identification de l’affiliation d’un individu au Hamas, Tsahal [l’armée de l’État d’Israël] l’a quand même intégré automatiquement dans ses listes d’éliminations « comme s’il s’agissait d’une décision humaine« . Les soldats ont indiqué ne pas avoir été tenus de vérifier de manière approfondie ou indépendante l’exactitude des données de Lavender ou de ses sources de renseignements. La seule vérification obligatoire avant d’autoriser un bombardement consistait à s’assurer que la cible désignée était bien de sexe masculin, ce qui prenait environ « 20 secondes« .

Il n’existe pas non plus de moyen fiable de tester l’exactitude de ces systèmes, ni de valider leurs performances. Vérifier l’affiliation d’une personne au Hamas est extrêmement complexe, notamment compte tenu de la nature potentiellement erronée des données sur lesquelles reposent ces prédictions. Il a été démontré à maintes reprises que les systèmes d’apprentissage automatique ne peuvent prédire de manière fiable des attributs humains complexes, tels que la « criminalité future potentielle« , à la fois parce que les données sont inadéquates et que les systèmes s’appuient sur des indicateurs indirects (par exemple, des données sur les arrestations plutôt que sur les crimes commis), mais aussi parce qu’il n’est tout simplement pas vrai que « plus de données équivaut à de meilleures prédictions« .

Au-delà du manque de précision ou de vérification humaine de ces systèmes, une préoccupation plus existentielle réside dans la manière dont leur utilisation est fondamentalement contraire aux droits humains et à la dignité humaine inhérente dont ces droits découlent. En témoigne le fait que les systèmes de ciblage israéliens basés sur l’IA fonctionnent exactement comme prévu, comme l’a déclaré Tsahal. « Pour l’instant, nous nous concentrons sur ce qui cause le plus de dégâts« .

Des soldats auraient été contraints de produire davantage de cibles de bombardement chaque jour et auraient utilisé des missiles non guidés, ou « bombes stupides« , pour cibler de présumés jeunes militants marqués par Lavander chez eux. Ceci, combiné à l’utilisation par Israël de l’IA pour calculer les dommages collatéraux , a entraîné des massacres de Palestiniens et un niveau de destruction jamais vu depuis la Seconde Guerre mondialeselon l’ONU.

L’utilisation de ces systèmes de ciblage par IA décharge effectivement l’homme de la responsabilité des décisions de vie ou de mort, tentant de dissimuler une campagne de destruction massive et de meurtres d’une simplicité déconcertante sous un vernis d’objectivité algorithmique. Il est impossible d’utiliser des systèmes comme Lavender ou Where is Daddy ? de manière éthique ou humaine, car ils reposent sur une déshumanisation fondamentale des personnes. Il faut les interdire, et nous devons abolir les infrastructures de surveillance, les bases de données biométriques et autres « outils de temps de paix«  qui permettent le déploiement de tels systèmes en zone de guerre.

Le rôle des Big Tech dans les atrocités criminelles

Comme indiqué précédemment, les infrastructures de surveillance développées et déployées en temps de paix sont facilement réutilisées en temps de guerre pour permettre les pires violations des droits humains.

Cela remet en question le rôle des géants de la technologie dans la fourniture de technologies civiles utilisables à des fins militaires, notamment les services de cloud computing et d’apprentissage automatique que Google et Amazon Web Services fournissent à Israël via le projet Nimbus . De plus, il a été suggéré que les métadonnées de WhatsApp, propriété de Meta, seraient utilisées pour alimenter le système de ciblage Lavender.

En ne parvenant pas à assumer leurs responsabilités en matière de droits de l’homme et en continuant à fournir ces services au gouvernement israélien, des entreprises comme Google, AWS et Meta risquent d’être complices de l’aide ou de l’encouragement de l’appareil militaire et de renseignement israélien et de ses atrocités criminelles à Gaza. 

Nous ne pouvons pas tolérer le développement d’infrastructures de surveillance de masse permettant de produire des cibles en masse, de déterminer un nombre « raisonnable » de victimes civiles et, in fine, de se déresponsabiliser face aux décisions de vie ou de mort. Nous réitérons notre appel à tous les gouvernements pour qu’ils interdisent les utilisations de l’IA incompatibles avec les droits humains, notamment la police prédictive, la surveillance biométrique de masse et les systèmes de génération de cibles comme Lavender.

halteaucontrolenumerique