Les algorithmes qui décident qui doit mourir

Peu après le 7 octobre 2023, Israël a utilisé des systèmes automatiques pour décider quel·les citoyen·nes palestinien·nes tuer. Pour chaque cible associée au Hamas, aussi peu importante soit-elle, Israël a accepté de tuer jusqu’à 20 civil·es. Cette technologie existe à présent et elle ne disparaîtra pas. Faisons en sorte qu’il en aille de même pour le droit international !

Israël est probablement le premier pays au monde à avoir tué plusieurs milliers de personnes en l’espace de quelques semaines sur la base des calculs d’un algorithme, et ce sans contrôle humain. Voilà qui ne promet rien de bon. Mais devons-nous craindre les développements technologiques ou plutôt les États qui ignorent le droit international et acceptent de tuer énormément de civil·es pour atteindre un objectif militaire contesté ?

La technologie en question

La révélation de certaines informations nous donnent un bon aperçu du fonctionnement de la technologie utilisée par Israël. Le magazine +9721 a mis le doigt sur deux technologies de l’infrastructure de génération de cibles d’Israël. Il existe d’une part un instrument nommé Lavender, qui a pour but de déterminer la probabilité qu’une personne appartienne au Hamas. Un autre outil, Where’s Daddy?, a pour but de savoir si un père de famille est à la maison ou non, avant de bombarder le bâtiment entier. Ces deux outils sont censés traquer les personnes, mais elles ne font au final que traquer les téléphones portables. Elles ne reconnaissent souvent pas immédiatement lorsqu’un téléphone est transmis à une autre personne. Lavender, comme les autres outils du même type ne peut calculer qu’une probabilité et non un résultat absolu.

Transparent venant d’une présentation pour les spécialistes de l’armée israélienne, obtenue via le magazine +972. «GT» désigne des membres connus du Hamas (sur le côté gauche). La machine attribue aux personnes inconnues un chiffre entre 0 et 1 (ici, les icônes sur le côté droit). Plus l’empreinte numérique de ces personnes ressemble à celle des membres du Hamas, plus ce chiffre est bas. Si le chiffre passait sous un certain seuil, la personne en question était ciblée.

Situation juridique et volonté politique

Israël est depuis longtemps en possession de ces outils mais auparavant, ceux-ci n’étaient toutefois utilisés que par des analystes pour la recherche de membres haut-placés du Hamas. Lors de conflits précédents, les cibles potentielles étaient analysées sous différents aspects avant d’être tuées. Les victimes civiles étaient tolérées, mais devaient être évitées autant que possible. Depuis le 7 octobre, ces outils sont utilisés directement pour établir des listes de cibles. Toute personne ayant un lien avec le Hamas, même les soldats communs et les personnes chargées de la protection civile sont considérées comme des cibles. Pour chaque membre peu haut placé identifié par le système comme appartenant au Hamas,
jusqu’à une vingtaine de victimes civiles ont été tuées délibérément.

Un objectif de précision de 90% a été adopté au départ. Cela signifie que dans 10% des cas, une personne sans lien avec le Hamas devait être tuée et avec elle, jusqu’à 20 civil·es.

Quelle que soit la technologie utilisée et que celle-ci fonctionne correctement ou non, ce genre d’attaques constituent des crimes de guerre, car leur utilisation viole une disposition contraignante du droit international humanitaire, le principe de proportionnalité.2

Les attaques susceptibles de causer des dommages disproportionnés dans
la population civile ou aux biens civils sont ainsi interdites même si elles sont dirigées contre des objectifs militaires

Explications du DFAE concernant le droit international

Perspectives pour Israël et le monde entier

Etablir des listes de cibles comme le fait Israël demande une quantité énorme de données que l’on ne peut obtenir que par le biais d’une surveillance de masse. L’analyse de ces données se fait au moyen d’instruments qui sont développés et enseignés dans des universités du monde entier. Il est donc pratiquement impossible d’endiguer le traitement de ces données. Cependant, la surveillance de masse peut être rendue plus difficile ou stoppée par des moyens politiques et technologiques.

Les mesures politiques et juridiques sont toutefois plus importantes que les mesures technologiques. La lumière doit ainsi être faite sur tous les crimes de guerre, peu importe qui les commet et avec quels moyens.

Les cybermenaces ne jouent pas un rôle prépondérant dans le quotidien politique suisse. C’est pour cela que nous ne leur avons pas accordé une grande place dans notre journal jusqu’à présent. Ces thèmes gagnent toutefois en importance et il est du devoir du GSsA de faire en sorte que les droits humains et le droit international restent la préoccupation centrale dans la défense contre ces menaces ! Dorénavant, nous publierons pour chaque
numéro une chronique “cyber” de Lukas dans laquelle Lukas Bürgi, secrétaire du GSsA, mettra en lumière sa réflexion sur l’un des sujets de ce domaine. Lukas s’intéresse depuis de nombreuses années à ces thèmes, puisque les cybermenaces se trouvent à l’intersection de son travail pour le GSsA et sa formation d’informaticien. En effet, Lukas est titulaire d’un bachelor en informatique de l’EPFZ.
  1. La recherche a été menée par +972 Magazine et Local Call et publiée en anglais sur le site web de +972 Magazine. De nombreux journaux de renommée internationale en ont parlé, notamment The Guardian (recherche supplémentaire partiellement indépendante de The Guardian), le Huffpost, le Washington Post et Foreign Policy. En Suisse, il y a eu des articles dans la NZZ, la SRF, le Tagesanzeiger (avec des informations supplémentaires sur l’utilisation des produits Google, voir aussi The New York Times à ce sujet). Dans la République, il y a eu un article sur les objecteurs de conscience israéliens, dont l’un a déclaré qu’une des raisons pour lesquelles il a interrompu son service militaire était l’utilisation des algorithmes décrits dans cet article. ↩︎
  2. Une analyse de la situation juridique basée sur la même recherche est disponible par exemple sur Tech Policy.press ↩︎