Affichage des articles dont le libellé est IA de guerre. Afficher tous les articles
Affichage des articles dont le libellé est IA de guerre. Afficher tous les articles

15/03/2026

Entre Maduro et Khamenei : l’intelligence artificielle a-t-elle remplacé l’intelligence humaine ?

Mostafa Ahmed, alhabtoorresearch, 3/3/2026

Traduit par Tlaxcala

Le premier trimestre 2026 a marqué un tournant stratégique dans le déploiement de la puissance militaire et la gestion des interactions géopolitiques. Pendant des décennies, les technologies informatiques sont restées largement confinées à des rôles de soutien opérationnel, tels que le traitement de données de renseignement ou le guidage de munitions de précision. Mais janvier et février ont été témoins d’un changement structurel alors que la planification militaire s’éloignait des cycles de décision dépendants de l’humain pour se tourner vers la gestion de chaînes d’élimination physique algorithmiques autonomes. Cette transformation a été formellement articulée dans la « Stratégie d’accélération de l’intelligence artificielle » publiée par le Département de la Guerre des USA (DoW) le 9 janvier 2026. La directive vise à ancrer la domination militaire usaméricaine en intégrant rapidement l’IA à travers les opérations de combat, de renseignement et d’entreprise, tout en transformant l’appareil de défense en ce que les responsables décrivent comme une structure militaire « AI-first ».

Cette doctrine reposait sur des paramètres opérationnels stricts privilégiant une létalité écrasante, une exécution rapide et des systèmes axés sur les objectifs qui placent le succès de la mission au-dessus de toutes autres considérations, excluant délibérément les variables sociales et politiques des cycles de décision algorithmiques pour assurer une supériorité décisive dans la prise de décision sur le champ de bataille. Ce changement s’est reflété dans deux opérations sans précédent : la capture du président vénézuélien Nicolás Maduro lors de l’opération Absolute Resolve en janvier 2026, et la frappe de décapitation visant le guide suprême iranien, l’ayatollah Ali Khamenei, lors de l’opération Silent Holy City, menée dans le cadre de l’opération Epic Fury en février 2026.

Ces opérations ont reflété l’intégration de grands modèles de langage, d’architectures de données dynamiques, d’algorithmes d’évaluation tactique et de systèmes autonomes sans pilote, transformant fondamentalement la vitesse, la précision et le calcul du coût géopolitique de la neutralisation de cibles de haute valeur. Ensemble, elles signalent que l’IA a dépassé son rôle analytique de soutien pour devenir un architecte stratégique du champ de bataille et un moteur de l’exécution cinétique.

Racines de la guerre algorithmique

La doctrine opérationnelle adoptée par les USA en 2026 a largement puisé son fondement méthodologique dans l’architecture de ciblage tactique développée par l’armée israélienne, en particulier l’Unité 8200, lors des opérations intensives à Gaza entre 2023 et 2025. Dans les cercles du renseignement, cette chaîne de ciblage algorithmique israélienne était souvent décrite comme une « usine d’assassinat de masse », constituant une base conceptuelle clé pour l’approche usaméricaine nouvellement formulée.

L’architecture israélienne, qui a mené la « guerre de l’IA », reposait sur trois systèmes structurels interdépendants :

1.     Le système Gopsel / Habsora : un outil d’IA pour le soutien à la décision stratégique qui traite d’immenses ensembles de données de surveillance pour générer un réservoir automatisé de cibles (bâtiments et installations). Ce système a considérablement accéléré le ciblage, faisant passer la production d’environ 50 cibles par an sous analyse humaine à plus de 100 cibles par jour.

2.     La base de données Lavender : un système de profilage individuel basé sur la surveillance de masse à Gaza et en Cisjordanie. Grâce à l’analyse automatisée des empreintes numériques telles que les réseaux sociaux, les relevés de communication et les schémas de déplacement, l’algorithme évalue les individus et les place sur des listes d’élimination automatisées. À son pic opérationnel, il aurait identifié plus de 37 000 cibles potentielles.

3.     L’algorithme « Où est papa ? » (“Where’s Daddy?”) : un système de géolocalisation conçu pour surveiller les cibles et déclencher des frappes une fois qu’elles sont rentrées chez elles. Cette tactique a historiquement été associée à des taux fortement élevés de pertes collatérales parmi les civils et les familles des personnes ciblées.

Le cadre stratégique de la guerre algorithmique

Pour comprendre les dimensions plus profondes de la poussée technologique à Caracas et Téhéran, il est essentiel de décomposer le cadre stratégique global qui a légitimé ces opérations et accéléré leur exécution. Dans ce contexte, la Stratégie d’intelligence artificielle publiée par le ministère de l Guerre le 9 janvier 2026 constituait une approche de combat offensive visant à démanteler les barrières bureaucratiques des technologies de l’information conventionnelles. Cette doctrine reposait sur l’exploitation des avantages concurrentiels asymétriques de l’USAmérique dans les marchés de capitaux, la capacité d’innovation de modèles et le vaste référentiel de données opérationnelles accumulées sur deux décennies de conflits.

Pour traduire cette stratégie en réalité opérationnelle, plusieurs projets d’avant-garde ont été lancés avec des calendriers stricts et sous la direction individuelle directe, les voies suivantes étant les plus importantes :

  • Le projet Swarm Forge a établi un mécanisme concurrentiel visant à élargir les capacités de combat innovantes en intégrant des unités militaires d’élite avec des développeurs de technologies commerciales.
  • Le projet Agent Network s’est concentré sur la conception d’agents d’IA autonomes pour gérer l’ensemble du spectre de la bataille, de la planification stratégique des campagnes à l’exécution précise des chaînes d’élimination.
  • Le projet Ender’s Foundry a été conçu pour accélérer les cycles de simulation cognitive et les boucles de rétroaction entre les développeurs de logiciels et les opérateurs cinétiques sur le terrain.
  • La piste Open Arsenal visait à comprimer le cycle de conversion du renseignement technique en systèmes d’armes opérationnels déployables, le réduisant de plusieurs années à seulement quelques heures.
  • L’initiative GenAI.mil a assuré un accès institutionnel sécurisé et large aux principaux modèles d’IA générative, y compris Gemini et Grok, pour les cadres opérationnels classés au niveau d’impact cinq et plus.

L’IA de Palantir et Anthropic guide les frappes usaméricaines contre l’Iran

Palantir agrège les données, Claude d’Anthropic les analyse et les humains approuvent les frappes dans le cadre d’une opération assistée par l’IA

Kang Da-eun, THE CHOSUN Daily5/3/2026
Traduit par
Tlaxcala


Le 3 mars, de la fumée s’élève sur le site d’une frappe aérienne israélienne dans la banlieue sud de Beyrouth. Photo AFP-Yonhap

La récente frappe aérienne usaméricaine contre l’Iran, baptisée opération « Epic Fury », a été décrite comme « la première frappe aérienne menée par l’IA ». Cette évaluation découle de l’implication profonde d’Anthropic, une startup usaméricaine d’IA, et de Palantir, une société d’analyse de données IA, dans l’opération. L’analyse indique que l’IA a joué un rôle critique dans l’ensemble de la chaîne meutrière (kill chain) — de la collecte de renseignements aux frappes de précision — tandis que les humains ont conservé la responsabilité des décisions et approbations finales, marquant un tournant dans la guerre moderne.

Les USA et Israël ont lancé une attaque surprise contre l’Iran le 28 février, capitalisant apparemment sur une rare opportunité lorsque la direction politique et militaire de l’Iran, dont le guide suprême, l’ayatollah Ali Khamenei, était réunie. Si les réseaux de renseignement humain qui avaient collecté des données sur le terrain pendant des années ont joué un rôle significatif, l’IA a été fortement impliquée dans l’analyse de ces informations et la conception de scénarios de frappe optimaux. En compilant des rapports du Wall Street Journal (WSJ), de CNN, et les réponses de modèles d’IA comme Claude, Gemini et Perplexity, nous résumons comment les technologies d’IA ont été utilisées dans la frappe aérienne usaméricaine contre l’Iran sous forme de questions-réponses.

Q : Quel rôle l’IA a-t-elle joué dans la frappe aérienne contre l’Iran ?

R : Palantir a intégré des données fragmentées provenant de diverses agences usaméricaines — imagerie satellite, séquences de drones, signaux radar et communications interceptées — pour cartographier les mouvements militaires à travers l’Iran. Le modèle d’IA d’Anthropic, Claude, a ensuite analysé ces données pour déterminer les cibles, méthodes et séquences de frappe optimales, fournissant aux commandants humains des recommandations exploitables.

Métaphoriquement, Palantir agit comme un centre de contrôle agrégeant les flux de vidéosurveillance à l’échelle d’une ville pour afficher les menaces en temps réel, comme « stockage de missiles dans le bâtiment 3 » ou « regroupement de chars sur la route 5 ». Claude, quant à lui, fonctionne comme un analyste conseiller : « Le bâtiment 2 présente le risque le plus élevé ; une frappe maintenant offre une probabilité de succès de 87% ».

Q : Qu’est-ce que Palantir ?

R : Fondée en 2003 par les cofondateurs de PayPal Peter Thiel, Alex Karp, Joe Lonsdale, Steven Cohen et Nathan Getty, Palantir a émergé après le 11 septembre avec l’objectif de centraliser les données de renseignement éparpillées pour identifier les terroristes. En 2004, elle a obtenu un financement initial d’In-Q-Tel, la branche de capital-risque de la CIA, et s’est développée en fournissant des plateformes d’analyse de données à l’armée usaméricaine, à la CIA, au FBI et à d’autres agences. Elle est maintenant une entreprise technologique cotée à la Bourse de New York.

 

Le 3 mars, à Miami, manifestation contre Palantir, qui collabore avec le département de la Défense et l’ICE (Immigration and Customs Enforcement). Photo Reuters-Yonhap

Q : Quel rôle Palantir a-t-il joué dans la frappe aérienne contre l’Iran ?

R : Palantir a unifié des milliards de points de données fragmentés — images satellites, vidéos de drones, signaux radar et communications interceptées — en un ensemble de données cohérent. Cela a permis aux commandants de visualiser intuitivement les installations militaires et les mouvements de personnel iraniens, un peu comme un « Google Maps de la guerre » combiné à un « tableau de bord de renseignement en temps réel ».

Q : Quelles technologies Palantir a-t-il utilisées ?

R : La plateforme Gotham, axée sur la défense, et sa plateforme d’IA AIP ont été essentielles. Gotham intègre des données disparates — rapports militaires, imagerie satellite/drone, communications interceptées — dans un réseau interrogeable, cartographiant les objets sur une grille militaire de haute précision. Par exemple, elle suit les changements sur une base de missiles sur six mois ou analyse les mouvements ennemis en utilisant la surveillance en temps réel.

AIP opère au sein de Gotham, connectant de manière sécurisée des modèles d’IA externes comme Claude à des données militaires classifiées. Elle garantit que Claude fonctionne au sein du réseau fermé du Pentagone, empêchant les commandes de frappe non autorisées et fournissant une interface permettant aux commandants humains d’approuver les décisions finales. Lorsque Gotham transmet des données à AIP, celle-ci demande à Claude d’analyser les menaces, par exemple en classant les centres de commandement du Corps des Gardiens de la Révolution islamique (CGRI) par niveau de risque. L’analyse de Claude est ensuite transmise aux commandants humains pour approbation.

Q : Quel était le rôle de Claude d’Anthropic ?

R : Claude a agi comme le « cerveau » au sein de l’écosystème de données de Palantir, fournissant des analyses stratégiques en analysant les rapports de renseignement et les données textuelles pour évaluer l’intention de l’ennemi ou les niveaux de menace. Par exemple, il pourrait conclure : « Ce bâtiment a 95% de probabilité d’être le centre de commandement de Khamenei » ou « Probabilité à 80% d’être lié aux lance-missiles à proximité ». Il effectue également une correspondance de modèles (pattern matching) par rapport aux données historiques, comme « Similarité à  90% avec l’imagerie passée d’installations nucléaires », et réalise des simulations de combat pour répondre à des questions complexes telles que : « Quelle est la probabilité de représailles de l’Iran si la cible A est frappée ? » ou « Quel est l’angle d’entrée optimal du drone pour contourner les défenses aériennes ? »

Q : Comment résumeriez-vous la collaboration entre Palantir et Anthropic dans la frappe aérienne contre l’Iran ?

R : En utilisant une analogie avec les échecs, Palantir affiche toutes les pièces sur l’échiquier, tandis que Claude conseille : « Frapper cette base pendant le ravitaillement maximise l’efficacité dans les 10 minutes ». Les commandants humains examinent l’analyse de Claude avant d’appuyer sur le bouton de la frappe finale. Palantir montre l’échiquier ; Claude est l’entraîneur analyste : « Ce coup offre 87% de chances de mat en cinq coups ». Les humains effectuent le mouvement réel.

Q : Pourquoi y a-t-il un conflit entre le Pentagone et Anthropic ?

R : Depuis fin 2024, Anthropic s’est associé à Palantir et AWS [Amazon Webs Services] pour fournir Claude aux environnements militaires et de renseignement classifiés. Alors que le gouvernement usaméricain insistait pour une utilisation sans restriction de l’IA à des fins militaires, le PDG d’Anthropic, Dario Amodei, a refusé d’abandonner les garde-fous contre la surveillance nationale ou les armes entièrement autonomes. Le président Donald Trump a condamné cette position, déclarant : « Les USA ne laisseront pas des entreprises gauchistes radicales dicter comment notre grande armée se bat et gagne » et a interdit aux agences fédérales d’utiliser Anthropic le 27 février. Cependant, le Pentagone a utilisé Claude lors de la frappe contre l’Iran moins d’un jour plus tard. Les USA prévoient de passer à xAI et OpenAI, mais le remplacement pourrait prendre au moins six mois en raison de l’intégration profonde de Claude dans Palantir et les systèmes militaires.

Image montrant les rôles de Palantir et d’Anthropic sur le champ de bataille. Quand Palantir collecte et intègre divers types de données, l’IA d’Anthropic les analyse pour établir les opérations. Les humains n’ont plus qu’à prendre les décisions. Image Gemini

Q : Palantir diverge-t-il d’avec Anthropic sur la militarisation de l’IA ?

R : Peter Thiel de Palantir et son PDG Alex Karp plaident pour une doctrine de sécurité nationale forte et réaliste. Ils considèrent qu’il est de leur devoir moral de fournir l’IA à l’armée, croyant que seules les idéologies soutenues par une puissance militaire et économique robuste peuvent changer le monde et que la dissuasion par la force assure la paix. Palantir affirme que sa mission principale est de prévenir la guerre.

Q : Quelles autres technologies d’IA sont déployées militairement en dehors de Palantir et Anthropic ?

R : Les technologies de pointe des entreprises usaméricaines sont de plus en plus utilisées dans la guerre. Le réseau satellite exclusif au gouvernement de SpaceX, Starshield, maintient l’infrastructure de communication pour les opérations de drones et la connectivité sur les lignes de front — agissant comme un « internet de guerre » résistant au brouillage GPS.

L’armée usaméricaine développe et déploie également des systèmes d’IA qui pilotent de manière autonome des drones et exécutent des frappes de précision. Dans ce système, « Hive Mind »de Shield AI et « Lattice » d’Anduril AI collaborent. Hive Mind permet aux drones de naviguer de manière autonome vers les cibles même lorsque le GPS ou les réseaux de communication sont perturbés. En s’approchant de la cible, le système bascule vers Lattice, qui se spécialise dans l’identification des cibles et la connaissance de la situation. Cette double collaboration d’IA permet des frappes de précision même dans des environnements à faible connectivité.

Décollage d’un drone de combat sans pilote YFQ-44A de l’US Air Force, équipé de logiciels autonomes de mission de Shield AI et Anduril. Photo Reuters-Yonhap