![]() |
Un journalisme exigeant demande du temps, des enquêtes approfondies et du travail, invisible et non rémunéré. Si nos articles vous sont utiles, votre abonnement est un vrai soutien. En retour, vous accéderez à des contenus exclusifs et participerez directement à l’indépendance de ce média.
[ Edito ] IA et crimes de guerre
La guerre à Gaza et celle en Iran montrent combien il est urgent de réguler les utilisations militaires et sécuritaires de l'intelligence artificielle. Des moyens d'action pénale existent déjà.
| |||||||||||||||
Où sont donc les ONG de défense des droits de l’Homme? Vous savez, la Ligue des droits de l’Homme, Amnesty International et les autres? Trop occupées à essayer de prouver par voie de justice que les français sont racistes, homophobes, islamophobes, transphobes, grossophobes etc. et à remplir leur dossier de censeur tiers de confiance dans le cadre du DSA afin d’obtenir encore plus de subventions publiques?
Le monde est pourtant confronté à une question aussi fondamentale que le furent l’utilisation des armes chimiques durant la Première Guerre mondiale et celle des armes nucléaires et bactériologiques après la Seconde: la question du ciblage automatique par intelligence artificielle (IA) et des armes autonomes.
Pour soutenir L’ECLAIREUR, choisissez votre abonnement, libre ou payant.
Cet état de fait est résumé dans le litige qui oppose la société Anthropic, fournisseur de l’IA Claude, et le Pentagone.
Anthropic a signé un contrat de 200 millions de dollars avec le ministère de la guerre américain en juillet 2025. Claude était jusqu'à récemment le seul moteur d'IA autorisé dans ses sphères classifiées. Le différend porte sur des restrictions d'utilisation à des fins militaires qu'Anthropic juge nécessaires. La société s'inquiète notamment de l'utilisation de ses technologies pour des armes autonomes et la surveillance de masse.
Le 24 février 2026, le secrétaire à la Défense Pete Hegseth a posé un ultimatum à Dario Amodei, le partron d’Anthropic: obtempérer avant le 27 février et autoriser une utilisation sans restriction de Claude. Dario Amodei a refusé.
Le président Trump a alors ordonné au gouvernement fédéral de cesser d'utiliser les produits Anthropic, tout en accordant six mois au Pentagone pour effectuer la transition vers d’autres solutions. Hegseth a désigné la société comme un "risque de chaîne d'approvisionnement", ce qui signifie que les sous-traitants du Pentagone ne peuvent pas l'utiliser non plus.
Anthropic a engagé deux poursuites distinctes contre le département de la Défense, dont l'une concernant une violation du Premier Amendement (liberté d'expression). La seconde conteste la désignation en tant que "risque de chaîne d'approvisionnement", une étiquette qui n'avait jamais été utilisée auparavant contre une entreprise américaine.
Anthropic affirme que l'interdiction du Pentagone pourrait lui coûter des milliards de dollars. OpenAI, la société-ONG (on ne sait plus trop bien) de Sam Altman qui fournit ChatGPT (moins bonne que Claude) a rapidement conclu un accord avec le département de la Défense pour combler le vide laissé par l’éviction Anthropic.
Si la position d’Anthropic est louable, elle n’est pas uniquement motivée par des considérations éthiques mais par la gestion des risques juridiques que l’utilisation de l’IA à des fins sécuritaires et militaires fait courir à cette société et à ses dirigeants, tant au civil qu’au pénal.
Et vous allez comprendre que ces risques sont considérables.
L’IA est une gigantesque bulle financière, et l’IA n’a pas grand chose à voir avec l’intelligence. C’est juste une couche d’automatisation supplémentaire.
|
Le ciblage automatique - c’est à dire le fait de frapper une cible sans confirmation visuelle humaine directe sur le terrain - a été introduit par Barack Obama lors des campagnes de dronage qu’il a ordonnées dans la ceinture tribale pakistanaise à partir de 2009. Leur “taux de rendement” était de 6%, c’est à dire que 94% des personnes tuées par ces frappes de drones furent des civils innocents, autant de crimes de guerre.
C’est à partir de 2004 que qu’on vit le développement accéléré de ce type de solutions. 2004, date de l’annulation du projet Total Information Awareness¹ de la Darpa² et sa privatisation rampante orchestrée par celui qui l’avait initié, l’amiral Poindexter (ancien conseillé à la sécurité de Ronald Reagan, pivot de l’affaire Iran-Contra, à l’époque à la tête du Darpa Information Awareness Office). Les travaux de la Darpa furent transférés à la NSA et une partie à une start-up fondée sur le système anti-fraude de PayPal: Palantir, financée par Peter Thiel et … la CIA.
Notez qu’un autre projet de la Darpa, LifeLog³, a connu le même sort le jour même où Facebook fut lancé. S’il n’y a pas de lien direct avérés entre ces deux événements, l’ancien directeur du programme a déclaré à Vice en 2015 que Facebook était dans les faits ce qui se rapprochait le plus de LifeLog.
Avance rapide jusqu’au 7 octobre 2023, et les frappes israéliennes sur Gaza. La mise en oeuvre du système de ciblage automatisé Lavender prétendument conçu par la fameuse unité 8200 s’est, selon Tsahal (chiffres soumis à importante caution, il est vraisemblablement très supérieur), traduite par le ciblage et le “traitement” de 37 000 individus considérés comme combattants du Hamas, avec un taux d’erreur de 10% -è comprendre que 3700 civils innocents ont été individuellement ciblés et tués par erreur. Crimes de guerre.
Lavender analyse les informations collectées sur la plupart des 2,3 millions d’habitants de Gaza via un système de surveillance de masse, puis évalue et classe la probabilité que chaque personne soit active dans la branche militaire du Hamas ou du Jihad islamique palestinien (PIJ) en lui attribuant une note de 1 à 100, décrivant ainsi la valeur de la cible qu’elle constitue. Exactement comme votre banquier décide - ou pas - de vous octroyer un prêt en fonction de votre “scoring”.
Pire, Lavender accepte des dommages collatéraux allant jusqu'à 15 à 20 civils tués pour chaque combattant du Hamas de faible rang éliminé, et plus de 100 civils tués pour un commandant de haut rang. Crimes de guerre. Le nombre de civils innocents massacrés délibérément à Gaza est aujourd’hui supérieur à 70 000.
Avance rapide jusqu’à aujourd’hui. La “guerre d’agression illégale non-provoquée” d’Israël et des Etats-Unis dans le Golfe persique a donné lieu à une expérimentation à très grande échelle - celle d’un pays de taille de l’Iran - de ces technologies de ciblage automatique. C’est à elles que l’on doit notamment le bombardement “double tap” (deux frappes rapprochées, la seconde étant destinée aux sauveteurs) d’un école de filles à Minab, dans le sud du pays, ayant fait au moins 168 victimes. Crime de guerre.
Les entreprises qui fournissent ces moyens de ciblage automatique sont connues, les “usual suspects”, complices de ces crimes de guerre.
La plus célèbre de toutes, Palantir, a fourni à l’armée et aux agences de renseignement israéliennes des capacités de ciblage avancées utilisées dans le cadre de la guerre à Gaza. Palantir a également fourni des outils permettant à l’armée israélienne d’exploiter d’importantes quantités de données afin d’élaborer des plans de déploiement pour ses forces spéciales ou d’aider au transport des troupes sur le terrain, donc de commettre des crimes de guerre.
Selon la rapporteuse spéciale de l’ONU Francesca Albanese, il existe des « motifs raisonnables » de croire que Palantir a fourni des technologies de surveillance prédictive, une « infrastructure de défense centrale », et la plateforme IA qui alimente Lavender, Gospel⁴ et « Where’s Daddy⁵ ». La même chose se vérifie, à une échelle beaucoup plus large, pour la guerre contre l’Iran.
Il serait donc bon que tous les droits-de-l’hommistes sortent de leur léthargie, nous montrent qu’ils ont un peu de courage et qu’ils méritent leurs grasses subventions publiques.
La justice française dispose depuis le 12 mai 2023 d’une compétence universelle en matière de crimes de guerre, de crimes contre l’humanité et de génocide - bref, de tout ce qui découle des statuts de Nuremberg. Les justices allemande et espagnoles sont encore moins restrictives dans les voies de poursuites que la française.
La compétence universelle est le principe permettant aux juridictions françaises de poursuivre et juger des infractions commises à l'étranger, par des étrangers, contre des étrangers, dès lors que certaines conditions sont réunies. Elle déroge aux règles classiques de compétence territoriale et personnelle.
La complicité en droit français est régie par les articles 121-6 et 121-7 du code pénal. Elle permet d'engager la responsabilité pénale d'une personne qui, sans avoir commis elle-même l'infraction, y a contribué d'une manière ou d'une autre.
Cela signifie donc que des associations agréées telles que la Ligue des droits de l’Homme ou Amnesty peuvent déposer en France, en Allemagne et en Espagne des plaintes avec constitution de partie civile pour crimes de guerre contre:
1 - Benjamin Netanyahou, ls membres de son gouvernement, l’ensemble des chefs d’Etat major de l’armée israélienne;
2 - Donald Trump et son administration, en particulier JD Vance (vice-président), Marco Rubio (secrétaire d’Etat et conseiller à la sécurité nationale), Pete Hegseth (secrétaire à la défense), Tulsi Gabbard (directrice nationale du renseignement), David Sacks (tsar de l’IA et des crypto-monnaies), les directeurs de toutes les agences de renseignement et l’ensemble des Joint Chiefs (chefs d’état major).
Et pour complicité de crimes de guerre contre:
1 - Alex Karp, l’ensemble de la direction de Palantir et Peter Thiel
2 - Sam Altman et l’ensemble de la direction de OpenAI
3 - Toute autre société ayant fourni des moyens techniques à ces ciblages.
L’intérêt de lancer de telles poursuites est triple :
1 - Prendre la tête du processus visant à sérier précisément les enjeux juridiques et pénaux afférents à l’utilisation des systèmes de ciblage automatiques et des armes autonomes, afin de poser les bases d’une jurisprudence et d’une convention internationale la régissant;
2 - Augmenter de manière significative les risques pénaux encourus par les états utilisant le ciblage automatique par IA et les sociétés en fournissant les outils et arrêter le massacre le temps qu’une convention internationale soit négociée;
3 - Desserrer l’emprise américaine en matière d’IA sur l’Europe en tenant personnellement comptables les responsables politiques et économiques américains de leurs crimes, ce qui permettra de favoriser les IA éthiques et d’interdire celles participant à du ciblage automatisé et aux armes autonomes.
Nous entendons déjà le chœur des mous du bulbe qui, en France et en Europe, vont dire que cela ne servira à rien puisque les Etats-Unis refusent d’agir selon le droit international. C’est oublier que George W. Bush, visé depuis 2009 par une enquête espagnole pour crimes de guerre (torture à Guantanamo), ne prend plus le risque de quitter les USA par peur d’être interpellé.
Imaginez donc tout le beau monde cité plus haut faisant nommément l’objet d’une enquête pénale annoncée par voie de presse, puisque qu’une plainte avec constitution de partie civile entraîne automatiquement l’ouverture d’une information judiciaire.
Imaginez ces gens faisant l’objet d’une notice rouge d’Interpol parce que convoqués par la justice française pour une audition, ils n’ont pas déféré.
Imaginez l’impact de telles poursuites sur la scène internationale et diplomatique?
Alors oui, l’Etat américain jouera de tous les moyens de pression possibles sur l’Etat français pour qu’il torpille les poursuites.
Mais quand on considère la situation politique aux Etats-Unis, le jeu en vaut la chandelle et le risque d’être pris: Donald Trump risque fort de ne pas remporter les élections intermédiaires de novembre prochain et le parti républicain va perdre la Chambre des représentants. Conséquence potentielle : une ou plusieurs procédures de destitution. S’il perd également le Sénat, possibilité qu’aucun stratège républicain n’exclut aujourd’hui, il sera poussé à la démission afin d’éviter le procès et la prison, comme Richard Nixon en 1974.
Qu’attendent les ONG? Que les responsables politiques et les pouvoirs publics, laquais sans colonne vertébrale de Washington, bougent?
Projet qui cherchait à atteindre une "maîtrise totale de l’information" en créant d'immenses bases de données pour collecter et stocker les informations personnelles de l'ensemble de la population américaine — courriels, réseaux sociaux, relevés de cartes bancaires, appels téléphoniques, dossiers médicaux et bien d'autres sources — sans mandat de perquisition. Ces informations devaient ensuite être analysées afin de détecter des activités suspectes, des liens entre individus et des "menaces". Le programme finançait également des technologies de surveillance biométrique capables d'identifier et de suivre des individus via des caméras de surveillance et d'autres moyens.
Il a été transféré à la NSA sous le nom de “Basketball”.
Defense Advanced Research Agency
Projet visant au développement d’un logiciel visant à prédire le comportement d’individus et à construire une base de donnée retraçant l’ensemble de l’existence des individus.
Un système d’aide à la décision basé sur l’IA, utilisé par Tsahal pour désigner des bâtiments et infrastructures à bombarder
Un système de géolocalisation conçu spécifiquement pour pister les individus figurant sur la liste de Lavender et alerter les opérateurs militaires lorsque ces personnes rentrent chez elles — la nuit, avec leurs familles — afin de déclencher la frappe à ce moment précis.
Vous êtes abonné gratuit à L'Eclaireur. Pour accéder à l’ensemble de nos contenus, merci de souscrire à la formule d’abonnement payant de votre choix.
© 2026 L'Eclaireur - Alpes
Directrice de la publication : Patricia Cerinsek
![]() |
Un journalisme exigeant demande du temps, des enquêtes approfondies et du travail, invisible et non rémunéré. Si nos articles vous sont utiles, votre abonnement est un vrai soutien. En retour, vous accéderez à des contenus exclusifs et participerez directement à l’indépendance de ce média.
AI War Crimes: The Law Already Has the Tools to Stop Them. So Why Is No One Using Them?
The wars in Gaza and Iran have made the question urgent: who is legally accountable when an algorithm kills the wrong person?
| |||||||||||||||
Where, exactly, are the human rights defenders? Human Rights Watch, Amnesty International, and the rest of the alphabet soup of NGOs — are they too busy filing discrimination complaints in European courts, or angling for their next tranche of public subsidies as “trusted flaggers” under the EU’s Digital Services Act? Because something far more consequential has been unfolding.
The world is confronting a question as fundamental as the ones posed by chemical weapons after the First World War, and by nuclear and biological arsenals after the Second: the question of automated AI targeting and autonomous weapons.
L’ECLAIREUR is reader-supported. To receive new posts and support our work, consider becoming a free or paid subscriber.
The Anthropic Affair: A Window Into the Problem
The clearest illustration of what’s at stake is the dispute between Anthropic — maker of the Claude AI — and the Pentagon.
In July 2025, Anthropic signed a $200 million contract with the U.S. Department of Defense. Claude became the only AI engine cleared for use in classified environments. The dispute that followed centered on Anthropic’s insistence on maintaining restrictions on military use — specifically, its refusal to allow its technology to be deployed in autonomous weapons systems or for mass surveillance.
On February 24, 2026, Defense Secretary Pete Hegseth issued an ultimatum to Anthropic CEO Dario Amodei: remove all restrictions by February 27, or face the consequences. Amodei refused. President Trump then ordered the federal government to stop using Anthropic’s products entirely, granting the Pentagon six months to transition to alternatives. Hegseth designated Anthropic a “supply chain risk” — a label never previously applied to an American company — effectively barring Pentagon contractors from using its products as well.
Anthropic has since filed two separate lawsuits against the Department of Defense: one alleging a First Amendment violation, the other contesting the “supply chain risk” designation. The company says the ban could cost it billions. OpenAI — Sam Altman’s peculiar for profit NGO — wasted no time filling the void, striking a deal with the Pentagon to replace Anthropic.
Anthropic’s stand deserves credit. But let’s be clear: it is not purely altruistic. It is also a calculated response to the enormous legal exposure — civil and criminal — that unrestricted military AI use would create for the company and its executives. As you will see, that exposure is real and substantial.
A Brief, Damning History of Automated Killing
First, some necessary context. AI is a massive financial bubble, and it has very little to do with intelligence in any meaningful sense. It is, at its core, an additional layer of automation — sophisticated pattern-matching dressed up in the language of cognition.
Automated targeting — striking a target without direct human visual confirmation on the ground — was pioneered by Barack Obama in his drone campaign across Pakistan’s tribal belt, beginning in 2009. The program’s “yield rate” was approximately 6%. That means 94% of those killed were innocent civilians. Thousands of war crimes, methodically administered.
The acceleration begins in 2004 — a year worth examining closely. That was when DARPA’s Total Information Awareness¹ program was officially cancelled, then quietly privatized under the stewardship of the man who built it: Admiral John Poindexter. The name should ring a bell. Reagan’s former National Security Advisor. A central figure in the Iran-Contra affair. And at that moment, head of DARPA’s Information Awareness Office.
The program didn’t die — it dispersed. Its research was handed off to the NSA, while another slice seeded a young startup built on PayPal’s anti-fraud system: Palantir, bankrolled by Peter Thiel and the CIA.
The same year, a second DARPA project — LifeLog² — met an identical fate, shut down on the very day Facebook launched. No direct causal link has ever been formally established. But in 2015, the program’s former director told Vice that Facebook had effectively become, in practice, the closest real-world approximation of what LifeLog was designed to be. Make of that what you will.
Fast forward to October 7, 2023, and Israel’s campaign in Gaza. The Israeli military’s Lavender automated targeting system — allegedly developed by the Unit 8200 — targeted and “handled” an estimated 37,000 individuals classified as Hamas combatants, according to the IDF’s own figures (which should be treated with considerable skepticism; the real number is likely far higher). The system’s admitted error rate was 10%, meaning approximately 3,700 innocent civilians were individually identified, targeted, and killed by mistake. War crimes.
Lavender works by ingesting mass surveillance data on the majority of Gaza’s 2.3 million residents, then scoring each individual on a scale of 1 to 100 according to their estimated likelihood of active membership in Hamas’s military wing or Palestinian Islamic Jihad. Think of it as a credit score — except the consequence of a bad rating is not a rejected loan application. It is death by missile.
The system’s accepted collateral damage thresholds are staggering: up to 15 to 20 civilians killed for each low-ranking Hamas fighter eliminated; over 100 civilian deaths deemed acceptable for a senior commander. War crimes, compounded at industrial scale. The total number of innocent civilians killed in Gaza now exceeds 70,000.
Iran: The Next Laboratory
The unprovoked war of aggression Israel and the United States have waged in the Persian Gulf has provided an even larger testing ground for automated targeting technology — an entire country the size of Iran. Among its documented results: a “double-tap” strike (two successive strikes, the second deliberately targeting rescuers) on a girls’ school in Minab, in southern Iran, killing at least 168 people. A war crime by any standard.
The companies supplying these targeting capabilities are well known.
The most prominent is Palantir. According to UN Special Rapporteur Francesca Albanese, there are “reasonable grounds” to believe Palantir provided predictive surveillance technology, a “central defense infrastructure,” and the AI platform powering Lavender, Gospel³, and the system known as “Where’s Daddy.⁴” Palantir has also provided tools enabling the Israeli military to process vast quantities of data for special forces deployment planning and troop logistics — tools that facilitated the commission of war crimes.
The same applies, at an even larger scale, to the Iran campaign.
The Legal Case That Isn’t Being Made — But Should Be
This brings us back to the human rights NGOS.
French courts have held universal jurisdiction over war crimes, crimes against humanity, and genocide since May 12, 2023. German and Spanish courts operate under even fewer procedural constraints. Universal jurisdiction — the principle permitting courts to prosecute crimes committed abroad, by foreigners, against foreigners — is not a theoretical novelty. It is an established legal mechanism that has simply not been used here.
French criminal law on complicity (Articles 121-6 and 121-7 of the Penal Code) allows the prosecution of any individual who contributed to an offense, even without directly committing it.
NGOs such as Amnesty International and the Ligue des droits l’Homme could file criminal complaints with civil party status in France, Germany, and Spain — complaints that automatically trigger a formal judicial investigation. They could do so tomorrow.
The defendants would include, for war crimes directly committed:
Benjamin Netanyahu, his cabinet, and the entire Israeli military high command. Donald Trump and his administration — specifically JD Vance, Marco Rubio, Pete Hegseth, Tulsi Gabbard, David Sacks, the directors of all intelligence agencies, and the Joint Chiefs of Staff.
And for complicity in war crimes:
Alex Karp and all of Palantir’s executive leadership, along with Peter Thiel. Sam Altman and OpenAI’s leadership. Every other exécutive of any other company that provided technical targeting capabilities used in these campaigns.
Why This Matters Beyond the Courtroom
The value of launching such prosecutions is threefold.
First, it would force a rigorous, public and legal reckoning with the specific criminal liabilities attached to automated targeting systems and autonomous weapons — laying the groundwork for the international convention that doesn’t yet exist but desperately needs to.
Second, it would materially increase the criminal risk faced by states deploying AI targeting and companies profitting by supplying the tools — raising the cost of the next atrocity while that convention is being negotiated.
Third, it would begin to loosen America’s stranglehold on European AI policy, by holding U.S. political and corporate decision-makers personally accountable. It would create structural incentives favoring ethical AI and disadvantaging systems like Open AI and Palantir participating in autonomous killing.
Yes, the chorus of the faint-hearted will object that this is pointless — the United States doesn’t recognize international law when it’s inconvenient. They have short memories. George W. Bush has not left the United States since 2009, when a Spanish criminal investigation for war crimes related to Guantánamo torture was opened against him. The risk of arrest abroad is not theoretical.
Now imagine every name listed above subject to a criminal investigation, announced publicly — because a civil party complaint in France automatically opens a judicial inquiry. Imagine Interpol red notices issued when those persons of interests, summoned for questioning by French, German or Spanish investigative magistrates, fail to appear. Imagine the diplomatic and political reverberations on the international stage.
Washington will bring every pressure it can bear to kill the proceedings. That is a given. But consider the political arithmetic. Trump faces midterm elections in November. Republican strategists privately acknowledge the possibility of losing the Senate as well as the House. The scenario ends with demands for resignation to avoid prosecution — the Nixon playbook, updated.
The tools exist. The crimes are documented. The legal pathways are open.
What are the NGOs waiting for?
The Information Awareness Office attempted to achieve "Total Information Awareness" by creating enormous computer databases to gather and store the personal information of everyone in the United States — including personal emails, social networks, credit card records, phone calls, medical records, and numerous other sources — without any requirement for a search warrant. This information would then be analyzed to look for suspicious activities, connections between individuals, and "threats." The program also included funding for biometric surveillance technologies that could identify and track individuals using surveillance cameras and other methods.
The goal was to develop software that deduces behavioral patterns from monitoring people's daily activities. More specifically, it sought to "build a database tracking a person's entire existence" — including relationships, communications, media consumption habits, purchases, and behavior — in order to build a digital record of "everything an individual says, sees, or does."
AI targeting of buildings and infrastructure.
“Where’s Daddy?” is a tracking system designed to monitor individuals already flagged by Lavender, and to signal to the military the precise moment those targets entered their family homes — at which point a strike would be made.
Vous êtes abonné gratuit à L'Eclaireur. Pour accéder à l’ensemble de nos contenus, merci de souscrire à la formule d’abonnement payant de votre choix.
© 2026 L'Eclaireur - Alpes
Directrice de la publication : Patricia Cerinsek




Aucun commentaire:
Enregistrer un commentaire