Témoignage
L’algorithme de la mort : trois ex-agents du renseignement israélien décrivent les méthodes de ciblage utilisées par Tsahal à Gaza
La chaîne britannique Channel 4 a publié le 2 avril un témoignage exceptionnel de lanceurs d’alerte du renseignement israélien. Ils révèlent qu’un système de ciblage « non humain » est pratiqué à Gaza, où les frappes visant des terroristes présumés sont approuvées en quelques minutes, et où le nombre de victimes collatérales jugé acceptable peut atteindre 300 civils.

Plus de 70 000 personnes, dont un nombre élevé de femmes et d’enfants ont été tuées à Gaza depuis l’attaque terroriste perpétrée par le Hamas le 7 octobre selon les estimations des autorités israéliennes. Malgré ce bilan humain accablant qui s’accompagne d’une destruction quasi totale du territoire, le gouvernement de Benyamin Nétanyahou soutient que l’armée israélienne ne cible que des membres du Hamas, les victimes civiles collatérales étant selon elle des terroristes.
Le média britannique Channel 4 Dispatches publie aujourd’hui le témoignage de trois analystes du renseignement israélien qui contredisent ce récit. Ils accusent les autorités israéliennes d’utiliser un logiciel d’intelligence artificielle pour identifier les terroristes à éliminer à partir d’une base de données répertoriant des membres confirmés du Hamas, toute personne présentant 90 % de caractéristiques communes avec celles répertoriées dans la base devenant une cible légitime. L’algorithme serait également utilisé pour déterminer le seuil à partir duquel une frappe létale serait légitime et pourrait être déclenchée. Selon ces trois agents, le nombre de victimes collatérales autorisées par les autorités israéliennes pourrait atteindre jusqu’à 300 pertes civiles.
Le système aurait été utilisé pour la première fois dans les territoires occupés de Cisjordanie au début des années 2010 pour prévenir des attentats terroristes potentiels, mais c’est seulement à partir de 2023 qu’il serait devenu cette machine de mort aveugle, pilotée entièrement par un algorithme en violation du droit international.
Ce témoignage est issu du documentaire Click to Kill : The AI War Machine, diffusé sur Channel 4, accessible uniquement depuis le Royaume-Uni, mais dont un extrait est aujourd’hui diffusé par la chaîne sur son compte X.
L’usine à cibles : l’algorithme israélien de la mort
Au cours des premiers jours de la guerre, la tâche principale consistait à créer ce qu’on appelle « des cibles. »
La création de cibles était un défi, car le gouvernement israélien affirmait respecter le droit international, selon lequel une frappe est interdite lorsque les pertes civiles collatérales attendues sont excessives par rapport à l’avantage militaire direct.
« Ils ont mis en place ce qu’on appelle “l’usine à cibles”. Il s’agissait essentiellement de repérer des lieux et des personnes à assassiner. Il y avait une pression pour prendre des mesures extrêmes, donc la solution de facilité consistait à utiliser des moyens non humains pour créer des cibles, à savoir l’IA. »
Il existait plusieurs systèmes différents. L’un attribuait à chaque individu une probabilité de menace comprise entre 1 et 100. Toute personne dépassant un seuil, disons 90, pouvait être prise pour cible.
« À un moment donné, nous utilisions un algorithme d’intelligence artificielle qui, à partir d’un ensemble de données répertoriant les membres confirmés du Hamas, recherchait des personnes présentant des caractéristiques similaires dans les bases de données générales couvrant l’ensemble de la population palestinienne. »
Lors des précédentes vagues de violence, le nombre de victimes civiles jugé acceptable par l’armée israélienne était bien inférieur. Une décision différente a été prise pour Gaza en 2023. Ces analystes du renseignement accusent Israël d’autoriser des dommages collatéraux de 20 civils pour toute cible approuvée. Mais ils vont plus loin.
« Pour les cibles particulièrement importantes, ce chiffre pouvait être encore plus élevé. Il y avait donc une autorisation de tuer 300 personnes au titre des “dommages collatéraux”. On ne voit pas le visage des gens qu’on tue, vous savez. Mais ce qui est étrange, c’est que j’ai entendu les voix de ces gens, et je me suis dit : “C’est difficile à dire, mais, vous savez, je les ai entendus pleurer quand leurs proches ont été tués. Je pense qu’une grande partie de ce que la technologie nous apporte, c’est qu’elle brouille la réalité pour nous permettre de ne pas être entièrement responsables de ce qui se passe.” »
Ces trois analystes du renseignement ne sont plus en service dans l’armée israélienne. En janvier 2026, un responsable israélien a déclaré aux journaux qu’ils s’accordaient à dire qu’il y avait eu plus de 70 000 morts lors des frappes au cours des deux années de guerre. Si la stratégie d’Israël était guidée par des choix humains, la technologie a permis ce carnage.
Les Forces de défense israéliennes (FDI, alias Tsahal) déclarent : « Tsahal n’utilise pas de système d’intelligence artificielle (IA) permettant d’identifier des agents terroristes ou de déterminer si une personne est un terroriste. Les systèmes d’information ne sont que des outils mis à la disposition des analystes dans le cadre du processus d’identification des cibles. L’armée israélienne opère dans le respect du droit international. Chaque frappe fait l’objet d’une évaluation individuelle au cas par cas, qui met en balance l’avantage militaire escompté et les dommages collatéraux attendus sur la population civile. Les décisions relatives à la proportionnalité sont prises sur la base des informations disponibles au moment de la décision et non a posteriori. »
Ce témoignage choque-t-il aujourd’hui les médias du service public et la classe politique ? En septembre 2024, Louis Sarkozy estimait que le bilan civil de la réponse du gouvernement israélien aux attaques du 7 octobre 2023 n’avait rien d’exceptionnel par rapport à d’autres génocides. Pourquoi sur ce principe devrait-on condamner celui commis à Gaza ?
Je ne suis pas, bien évidemment, militaire et je n’étais pas né au moment de cet attentat, mais je pense que je parle pour beaucoup de Français quand je dis « qu’ils crèvent ». Israël fait le travail de l’humanité ici. Absolument aucun remords à ce niveau-là, qu’ils crèvent tous. […]
L’attaque de Pearl Harbor, les États-Unis entrent en guerre. Il y a 2 200 morts américains. En quatre ans, les Américains tuent 3,5 millions de Japonais, 100 000 en une nuit. Qui parle du génocide japonais ?
Il y a 2 500 morts au 11 septembre. Les Américains tuent 400 000 Irakis et Afghans.
Le taux de ratio civil et militaire dans ces deux guerres est pire qu’à Gaza, et pire qu’au Hezbollah.
Jusqu’à 400 000 civils assassinés par Tsahal selon certaines estimations
Précisons que le bilan de 70 000 civils assassinés à Gaza depuis le 7 octobre 2023 est contesté par plusieurs sources (Al Jazeera, The Guardian) qui estiment cette estimation « conservatrice ». Une étude du Lancet (Gaza Mortality Survey) publiée en février dernier évalue à 75 200 le nombre de morts directes liées au combat entre le 7 octobre 2023 et le 5 janvier 2025 (soit environ 35 % de plus que les 49 090 décès rapportés à l’époque par le ministère de la Santé de Gaza), auxquels il convient d’ajouter environ 16 300 morts non violentes par malnutrition ou carence de soins. Une précédente étude du Lancet estimait quant à elle en 2024 qu’« Il n’est pas invraisemblable d’estimer que jusqu’à 186 000 décès, voire davantage, pourraient être imputables au conflit actuel à Gaza ». L’analyste géopolitique Gérard Chevrier évoque de son côté un bilan d’au moins 400 000 morts, soit 18 % de la population gazaouie estimée en 2023 à environ 2,2 millions d’habitants.
Louis Sarkozy approuve-t-il uniquement ce bilan ou cautionne-t-il également les méthodes qui ont rendu possible ce massacre, qualifié de « génocide » par l’ONU dans un rapport de septembre 2025 ? Fin mars, l’armée israélienne a éliminé trois journalistes au Liban, dont Ali Shoeib, le correspondant de la chaîne de télévision Al-Manar, réputée affiliée au Hezbollah. Tsahal a justifié la frappe ayant entraîné le décès de ces trois journalistes en affirmant qu’Ali Shoeib était un « terroriste membre de l’unité de renseignement du Hezbollah [qui] opérait sous couverture journalistique ». L’armée la plus morale du monde reconnaît aujourd’hui que l’image publiée en réponse au tollé provoqué par cet assassinat, montrant Ali Shoeib en uniforme militaire du Hezbollah était photoshopée.
Pour mémoire, voici Gaza aujourd’hui.
Précisons que la BBC a compilé plus de 160 cas d’enfants abattus à Gaza par l’armée israélienne entre octobre 2023 à juillet 2025, dont 60 % seraient décédés des suites d’un tir à la tête ou à la poitrine.
