Guerre à la vitesse de la pensée : l'IA a-t-elle définitivement remplacé le jugement humain?
Guerre à la vitesse de la pensée : l'IA a-t-elle définitivement remplacé le jugement humain?
Alors que les algorithmes s'invitent au cœur des conflits modernes, la rapidité d'exécution supplante peu à peu la réflexion éthique. Plongée dans les coulisses d'une révolution militaire qui transforme les données en cibles instantanées.
Imaginez un conflit où l’élimination d’un dirigeant suprême ne prend que soixante secondes. Ce n’est pas le scénario d’un film de science-fiction, mais la réalité brutale du 28 février 2026, premier jour de la guerre menée par la coalition américano-israélienne en Iran. Ce jour-là, l’Ayatollah Ali Khamenei a été neutralisé en une minute chrono. Cette prouesse technique, rendue possible par l’Intelligence Artificielle (IA), marque un point de bascule : nous sommes passés de la guerre artisanale à l’industrialisation de la force. Mais à quel prix?
⏱️ De la semaine à la seconde : l'industrialisation du "Kill Chain"
Le concept de "Kill Chain" (ou chaîne de destruction) désigne le processus complet allant de l'identification d'une cible à l'ordre de tir. Historiquement, ce cycle était lent. Durant la Seconde Guerre mondiale, il fallait des semaines pour analyser des photographies aériennes et valider un objectif. En 1991, lors de la guerre du Golfe, ce délai est tombé à quelques jours.
Aujourd'hui, l'IA a littéralement pulvérisé ces échelles de temps. En traitant des masses de données (flux de drones, interceptions SMS, images satellites) en temps réel, les algorithmes réduisent la délibération humaine à néant. Comme l’avait prédit l’historien Nick Cullather dès 2003, nous pratiquons désormais le « bombardement à la vitesse de la pensée ». Le gain de vitesse est tel qu'il devient l'argument suprême des états-majors : frapper plus vite que l'ennemi n'est plus un avantage, c'est une nécessité de survie algorithmique.
🤖 Les nouveaux maîtres de la guerre : Maven et Claude
Au cœur de cette machine de guerre américaine se trouve le Project Maven. Lancé par le Pentagone en 2017, ce système utilise la vision par ordinateur pour identifier des cibles sur des images satellites. Mais la véritable nouveauté réside dans son alliance avec Claude, l’IA générative de l’entreprise Anthropic.
Selon des rapports récents de The Guardian, le Maven Smart System (MSS) utilise les capacités de traitement de texte de Claude pour synthétiser des rapports de renseignement complexes et suggérer des plans d'attaque en langage clair. L'impact organisationnel est vertigineux : une enquête de l’université de Georgetown a révélé que le 18e corps aéroporté de l’armée américaine a réussi à réduire son équipe d’analyse de 2 000 personnes à seulement 20 grâce à ces outils. Une efficacité redoutable, mais qui pose une question cruciale : comment 20 humains peuvent-ils réellement vérifier les milliers de recommandations générées chaque heure par une machine?
🎯 Lavender et Gospel : quand l'algorithme définit le "sacrifice acceptable"
C’est sur le terrain de Gaza que l’automatisation du ciblage a montré son visage le plus sombre. Les systèmes israéliens Lavender et Gospel ne sont pas de simples outils d'aide à la décision ; ils fonctionnent comme de véritables générateurs de listes de personnes à abattre.
Lavender : Cet algorithme attribue une note de 1 à 100 à chaque individu, calculant la probabilité qu'il appartienne à un groupe armé. À son apogée, il aurait identifié jusqu'à 37 000 cibles potentielles.
"Where’s Daddy?" : Ce sous-programme, particulièrement terrifiant, suit les individus marqués par Lavender et n'alerte les opérateurs que lorsqu'ils rentrent à leur domicile. Pourquoi? Parce qu’il est techniquement plus facile pour l’IA de localiser une cible dans un bâtiment statique que sur le champ de bataille.

Une diapositive présentée lors d'un salon professionnel par un haut commandant de l'Unité 8200, illustrant le système Lavender avec une iconographie caractéristique des start-ups.
Le point le plus polémique reste le "seuil de tolérance" des victimes civiles. Des sources du renseignement indiquent que pour un seul combattant de rang inférieur, les commandants auraient accepté jusqu'à 15 ou 20 victimes civiles collatérales. Pour un haut dirigeant, ce chiffre pouvait grimper à plus de 100. Cette mathématisation de la mort transforme la tragédie humaine en une simple variable statistique.
🧠 Le "Biais d'automatisation" : le piège du tampon en caoutchouc
Le danger majeur de cette technologie est un phénomène psychologique bien connu des chercheurs : le biais d'automatisation. Il s'agit de la tendance humaine à faire une confiance aveugle à une machine, même lorsque celle-ci se trompe.
Sur le terrain, les officiers de renseignement ne passent parfois que 20 secondes pour valider une cible suggérée par l’IA, le temps de vérifier simplement que l’individu est un homme. Ils deviennent des "rubber stamps" (des tampons en caoutchouc), validant mécaniquement des ordres de mort.
Cette faillibilité a mené à des drames absolus, comme le bombardement de l'école primaire Shajareh Tayyebeh à Minab, en Iran, le 28 février 2026. L'attaque a fait 175 victimes, principalement des enfants. L'enquête suggère que l'IA a utilisé des données datant de plus de dix ans, classant l'école comme une installation militaire car elle l'avait été brièvement par le passé. Une simple recherche sur Internet aurait permis de voir qu'il s'agissait désormais d'un établissement scolaire, mais la "vitesse" a interdit cette vérification de bon sens.
![]() |
| Une capture d’écran montre ce que les experts identifient comme un missile Tomahawk américain frappant à proximité de l’école de filles Shajareh Tayyebeh à Minab, dans la province de Hormozgan, en Iran, le 28 février 2026, dans le contexte de la guerre entre les États-Unis, Israël et l’Iran |
⚖️ Létalité maximale contre légalité tiède
Cette dérive technologique s’accompagne d’un durcissement doctrinal inquiétant aux États-Unis. Sous l’impulsion du Secrétaire à la Défense Pete Hegseth, l’infrastructure de protection des civils (CHMR) a été démantelée à 90 %. Les experts juridiques militaires, les JAGs, qui servaient de garde-fous contre les frappes illégales, ont été écartés ou licenciés.
La nouvelle doctrine est claire : la « létalité maximale » prime sur ce que Hegseth qualifie de « légalité tiède ». En prônant ouvertement de ne faire « aucun quartier » et de n'avoir « aucune merci », le commandement militaire frôle, selon de nombreux juristes et l'organisation Human Rights Watch, la violation directe des Conventions de Genève. La Directive 3000.09 du Département de la Défense, censée garantir un « contrôle humain significatif », semble aujourd'hui bien impuissante face à la fureur des algorithmes.
🔮 Vers une déshumanisation numérique totale?
La guerre de l’IA ne fait que commencer, mais elle redéfinit déjà notre rapport à la responsabilité. Si une machine commet une erreur de ciblage parce qu'un développeur a utilisé des données biaisées ou obsolètes, qui est le coupable? Le programmeur? L'officier qui a signé en 20 secondes? Ou le ministre qui a exigé la vitesse absolue?
Nous assistons à une "déshumanisation numérique" où l'ennemi n'est plus un être humain, mais un point de données dans un nuage probabiliste. La tragédie de Minab ou la mort d’Abdul-Rahman al-Rawi, première victime civile officiellement liée à une frappe assistée par l'IA en 2024, nous rappellent que derrière chaque "algorithme performant", il y a des vies brisées.
La question n'est plus de savoir si l'IA peut gagner une guerre, mais si l'humanité peut survivre à une paix dictée par des machines dont nous avons perdu le contrôle. Le futur de la défense ne réside peut-être pas dans des processeurs plus rapides, mais dans notre capacité à réintroduire du doute, du temps et de l'empathie au cœur de la décision.


Commentaires
Enregistrer un commentaire