Il existe, dans la base aérienne américaine d’Al Udeid, aux portes de Doha, une interface logicielle sur laquelle un opérateur peut, en quatre clics, identifier un char ennemi, le géolocaliser, l’affecter à un F-22 stationné à 130 kilomètres de là, et recevoir une confirmation : « Cible neutralisée ». Ce système s’appelle Maven Smart System. Il est développé par Palantir, une entreprise dont la capitalisation boursière a atteint 360 milliards de dollars au premier trimestre 2026, propulsée en partie par les conflits que l’Amérique est en train de mener (opération Epic Fury contre l’Iran, soutien militaire à l’Ukraine, capture de Nicolás Maduro au Venezuela). Jusqu’à récemment, il tournait en partie sur des modèles d’intelligence artificielle (IA) d’Anthropic.
Le 9 mars 2026, le secrétaire américain adjoint à la Défense Steve Feinberg a signé une lettre destinée aux hauts responsables militaires : Maven est désormais élevé au rang de « programme officiel » du Pentagone, avec les lignes budgétaires dédiées et les engagements pluriannuels que cela implique, transformant Palantir en intégrateur par défaut de l’IA militaire américaine plutôt qu’en simple prestataire. Une semaine plus tard, ce même Pentagone bannissait Anthropic, le fournisseur qui alimentait une partie critique de ce système, au motif que l’entreprise refusait d’en accepter un usage sans restrictions.
Nous sommes en mars 2026. Les États-Unis sont en guerre, et cette guerre a des actionnaires. Des contrats, des cours de bourse, des conférences de presse où des PDG en blazer commentent les frappes de la veille comme d’autres commenteraient des résultats trimestriels. Pour la première fois dans cette architecture inédite, une des entreprises qui la font tourner a dit non et s’est retrouvée bannie par le gouvernement qu’elle servait.
Vibe patriotism : quand la Silicon Valley joue à la guerre
Pour comprendre ce basculement, il faut remonter quelques années en arrière : aux conférences tech, aux levées de fonds, aux discours sur la « disruption » appliquée à la défense nationale.
Pendant des années, la Silicon Valley a entretenu une forme de distance morale vis-à-vis du complexe militaro-industriel. Les ingénieurs ne voulaient pas que leur code serve à tuer. En 2018, plus de 3000 employés de Google ont signé une pétition pour que l’entreprise se retire du Projet Maven : ce programme du Pentagone qui utilisait la vision par ordinateur pour analyser des images de drones militaires et identifier des cibles. Leur crainte était simple et précise : que l’IA finisse par être intégrée dans des systèmes de frappes létales. Ils avaient raison. Google a cédé à la pression et quitté le programme. Mais Maven, lui, n’a pas disparu. Il a continué, grandi, et Palantir a récupéré le contrat, avec beaucoup moins d’état d’âme sur la question.
Ce qui s’est passé ensuite ressemble à une leçon de capitalisme de guerre. Le retrait de Google n’a pas ralenti le programme, il a ouvert un marché. Palantir, Anduril, et une constellation de startups ont comblé le vide, financées en partie par Andreessen Horowitz, qui vient de boucler une levée de 15 milliards de dollars, dont 1,2 milliard fléché vers la défense dans le cadre de son fonds American Dynamism. Le message était clair : là où les grandes entreprises tech reculaient par scrupule, le capital-risque avançait. Il fallait juste trouver les bons arguments pour recruter les ingénieurs qui, eux, avaient encore des scrupules. Ces entreprises ont trouvé la solution dans un mot : « service ».
C’est l’argument central de Ben Buchheim-Jurisson, vétéran de l’armée américaine reconverti en investisseur dans le secteur de la défense. Dans un texte publié en mars 2026, il nomme le phénomène : « vibe patriotism », un patriotisme d’ambiance, de posture, de bonne conscience. Les exemples ne manquent pas. Des fondateurs de startups et des associés de fonds de capital-risque défilent sur le campus de Stanford avec des sacs à dos lestés de poids, en signe de solidarité avec les soldats au front. L’exercice s’appelle le « ruck march » dans l’armée américaine, une épreuve d’endurance imposée aux recrues. Ici, c’est volontaire, et on peut s’arrêter quand on veut. C’est précisément le problème que pointe Buchheim-Jurisson. Dans le même esprit, les entreprises ont adopté le vocabulaire militaire : Palantir publie un manifeste intitulé « Why We Serve », Anduril parle d’« innovation comme service national ». En anglais, “service” désigne spécifiquement le fait de servir sous les drapeaux. Personne dans ces entreprises n’est sous les drapeaux.
Buchheim-Jurisson ne dit pas que ces gens sont de mauvaise foi. Son argument est plus profond que ça. Un soldat remet son autonomie à l’État : il va où on lui dit d’aller, assume des risques qu’il n’a pas choisis, est payé selon un barème fixé par la loi — souvent bien moins que ce que le marché lui offrirait pour les mêmes compétences techniques. Un fondateur de startup, un associé de VC, un ingénieur chez Palantir peut démissionner demain matin. S’il le fait, il perd peut-être des stock-options, une réputation, des relations. Ce sont des coûts réels mais ce sont des coûts de marché, pas des obligations légales. Personne ne l’envoie en prison. Personne ne l’envoie au front. C’est cette asymétrie fondamentale que le mot « service » efface soigneusement.
Les mots ne sont jamais neutres, surtout en temps de guerre. L’historien Andrew Bacevich l’avait écrit bien avant que la Silicon Valley ne découvre la défense nationale : dans Breach of Trust, il formule une idée qui s’avère aujourd’hui prophétique. La guerre devient plus facile, plus acceptable, plus probable, quand les élites peuvent s’y affilier moralement sans en subir les conséquences physiques. La rhétorique du « service » accomplit exactement cela. Elle permet aux fondateurs et aux investisseurs qui construisent des systèmes d’armes autonomes, des drones létaux et des plateformes de ciblage assisté par IA de se percevoir, et d’être perçus, comme des acteurs de la défense nationale au même titre que les militaires qu’ils équipent. Le problème, c’est que ce sont ces mêmes personnes qui façonnent de plus en plus la politique américaine : par le lobbying, le financement de think tanks, des rôles de conseillers au Pentagone, et une porte tournante permanente entre le capital-risque et l’appareil militaire. Ils définissent quelles menaces sont urgentes, quelles technologies sont nécessaires, quel niveau de risque est acceptable. Depuis un bureau à Palo Alto.
La guerre en quatre clics
Ce que ces technologies permettent concrètement est révolutionnaire. Et c’est précisément ce qui rend les questions de gouvernance si urgentes.
L’histoire de Maven commence en 2017 sous une forme modeste : identifier et classer automatiquement des images issues de drones militaires pour soulager les analystes humains. Neuf ans plus tard, le système n’a plus grand-chose à voir avec un outil de tri d’images. C’est une plateforme de commandement et de contrôle (C2) qui fusionne en temps réel des données provenant de satellites, de drones, de radars, de capteurs au sol et de rapports de renseignement, pour en extraire automatiquement des cibles potentielles : un convoi de véhicules blindés, un dépôt de munitions, une position de lancement de missiles. Ce qui prenait des heures à une équipe d’analystes humains se fait désormais en quelques secondes.
Les chiffres parlent d’eux-mêmes. Au début du programme, Maven permettait de traiter moins d’une centaine de cibles par jour. On est passé à mille, puis à cinq mille. Une seule cellule de ciblage peut désormais aller de la détection d’une cible à son engagement en quelques minutes, là où il fallait compter plusieurs heures. Durant la première semaine de la guerre contre l’Iran, plus de 2000 cibles ont été frappées, dont beaucoup sélectionnées par Maven.
Ces chiffres abstraits prennent une autre dimension quand on les traduit en rythme opérationnel concret. Lors de la première journée de l’opération Epic Fury, Claude a généré environ 1000 recommandations de cibles. Soit une cible toutes les 86 secondes. Dans les 12 premières heures, 900 frappes ont été exécutées : une toutes les 48 secondes. Les opérateurs « dans la boucle » disposaient en moyenne de moins d’une minute et demie pour examiner chaque recommandation de ciblage avant que la suivante n’apparaisse. Ce que les militaires appellent le « jugement humain » se réduit, à ce rythme, à un clic d’approbation. Les exercices préalables avaient pourtant documenté une précision de Maven de 60 % (contre 84 % pour les analystes humains), le système confondant parfois des camions avec des arbres. C’est dans ce contexte que des frappes ont été exécutées sur Minab, une ville du sud de l’Iran, où une école de filles a été touchée. Aucun véhicule militaire n’avait été repéré sur place dans les jours précédant la frappe. Environ 150 élèves ont été tuées. Ni le Pentagone, ni Palantir, ni Anthropic n’ont confirmé si Maven avait sélectionné le bâtiment comme cible.
En mars 2026, Cameron Stanley, le responsable du bureau IA du Pentagone, en a fait la démonstration publique lors d’un événement Palantir, montrant en direct des cartes thermiques de ciblage au Moyen-Orient. « Quand nous avons commencé, il fallait des heures pour faire ce que vous venez de voir », a-t-il déclaré.
Maven Smart System n’est pas un simple logiciel de cartographie militaire. Concrètement, le système intègre des algorithmes de vision par ordinateur (computer vision) capables de détecter automatiquement des cibles, propose des plans de frappe terrestres ou aériens, et recommande quelles munitions et quels vecteurs affecter à chaque objectif, via un outil baptisé « AI Asset Tasking Recommender ». Claude, le modèle d’Anthropic, y jouait un rôle central : celui d’une couche cognitive capable de transformer des flux de données brutes en informations directement exploitables par un opérateur. Une démonstration interne publiée par Palantir illustre la mécanique avec une précision qui ne laisse aucune place à l’ambiguïté. Un opérateur demande à l’assistant IA de « générer trois plans d’action pour cibler cet équipement ennemi ». En quelques secondes, trois options apparaissent à l’écran : frappe aérienne, artillerie longue portée, équipe tactique au sol. L’opérateur choisit. L’IA génère la route d’approche, assigne les brouilleurs de communication ennemis, et transmet l’ordre. La mission est lancée.
À ce dispositif s’ajoute la plateforme Lattice d’Anduril. Il y a quelques jours, l’armée américaine a signé avec la startup un contrat-cadre de dix ans pouvant atteindre 20 milliards de dollars, qui remplace d’un coup plus de 120 procédures d’achat distinctes. Lattice n’est pas un simple logiciel de surveillance. C’est une architecture capable de connecter des milliers de capteurs, de radars, de drones et de systèmes d’armement dans une interface unique de commandement et contrôle, du soldat sur le terrain jusqu’au quartier général. Le premier contrat opérationnel, de 87 millions de dollars, porte sur la lutte anti-drones. Mais la vocation du système est explicitement plus large : il est appelé à s’étendre à l’ensemble des agences fédérales, FBI inclus, pour couvrir ce que l’armée appelle la « zone grise », cet espace flou où les activités criminelles et les opérations militaires finissent par se confondre. En clair, la guerre et la police fusionnent dans une interface unique, gérée par une entreprise privée cotée en bourse. Ce n’est plus seulement l’armée qui est équipée par la Silicon Valley. C’est l’ensemble de l’appareil coercitif de l’État américain.
Bannie pour avoir eu des principes
Et puis, au milieu de tout cela, une entreprise a dit non. Pas une petite startup sans contrats ni ambitions. Anthropic, fournisseur officiel du Pentagone, certifiée pour les réseaux militaires classifiés, intégrée au cœur de Maven. Elle a refusé d’accorder au gouvernement américain un accès inconditionnel à ses modèles Claude.
Le désaccord porte sur deux points. Anthropic refuse que ses modèles servent à surveiller des citoyens américains à grande échelle. Et l’entreprise estime que ses modèles ne sont tout simplement pas prêts à alimenter des systèmes d’armes autonomes, capables de décider et d’exécuter des frappes létales sans qu’aucun humain ne soit dans la boucle. Des positions qui, dites comme ça, semblent relever du bon sens. C’est pourtant pour les avoir exprimées qu’Anthropic a été officiellement désignée « risque pour la chaîne d’approvisionnement » par le Pentagone.
Le paradoxe mérite d’être souligné. Anthropic n’a pas été bannie pour des défaillances techniques. L’entreprise avait été la première à faire certifier ses modèles pour un usage sur des réseaux militaires classifiés. Elle détenait une autorisation FedRAMP High, le niveau de certification le plus élevé pour les systèmes fédéraux sensibles. Elle n’avait jamais reçu le moindre signalement de sécurité de la part du gouvernement. Ce qui lui a valu d’être mise sur liste noire, c’est d’avoir eu des principes.

Anthropic a riposté en déposant deux poursuites judiciaires contre le Pentagone pour rétorsion illégale et violation constitutionnelle. Donald Trump, lui, a choisi un autre registre. « J’ai viré Anthropic, a-t-il déclaré à Politico. Je les ai virés comme des chiens, parce qu’ils n’auraient pas dû faire ça. » Dans le même temps, 37 employés d’OpenAI et de Google DeepMind, dont Jeff Dean, directeur scientifique de Google, ont signé une lettre de soutien à Anthropic. Des salariés prenant publiquement la défense d’un concurrent direct. Ce seul fait résume assez bien la nature du débat.
Un épisode résume mieux que tout l’état de dépendance dans lequel s’était installée l’armée américaine. Après l’opération qui a conduit à la capture du président vénézuélien Nicolás Maduro, des responsables d’Anthropic ont appelé Palantir pour savoir si leurs modèles avaient été utilisés dans l’opération. Ils ne le savaient pas eux-mêmes. Cette question a provoqué ce que le sous-secrétaire à la Recherche du Pentagone, Emil Michael, décrit comme « un moment de stupeur pour l’ensemble de la direction du Pentagone ». L’armée américaine venait de réaliser qu’elle était peut-être devenue dépendante d’un fournisseur logiciel privé pour des opérations de combat, sans en avoir pleinement conscience, et sans aucune alternative prête à prendre le relais.
Débrancher Claude : plus facile à dire qu’à faire
La mise sur liste noire d’Anthropic a créé une situation que les ingénieurs du Pentagone qualifient eux-mêmes de kafkaïenne. Claude n’était pas un outil périphérique dans l’architecture de Maven. Il en constituait une couche centrale. Des pans entiers du système ont été construits à l’aide de Claude Code, l’outil de développement logiciel d’Anthropic. Des flux de travail, des séquences d’instructions critiques, des automatismes opérationnels. Remplacer tout cela ne se fait pas en branchant un autre modèle à la place. C’est reconstruire une partie substantielle du système de zéro (from scratch).
Sur le terrain, les informaticiens du Pentagone ne décolèrent pas. Ils avaient mis des mois à familiariser les opérateurs avec ces outils. Ils considèrent Claude comme le meilleur modèle disponible pour leurs besoins. Et ils regardent avec peu d’enthousiasme l’alternative qui se profile : Grok, le modèle d’Elon Musk, qui a signé un contrat avec le Pentagone assorti de moins de restrictions que ses concurrents, produit souvent des réponses contradictoires à une même question. Les prestataires gouvernementaux, eux, parlent surtout de temps perdu et de coûts inutiles. La qualification prendra entre 12 et 18 mois, pour un résultat qui, de l’avis général, sera inférieur à ce qui existait déjà.
Reuters a rapporté une situation pour le moins cocasse : pendant les jours où le Pentagone bannissait officiellement Anthropic, ses opérateurs continuaient d’utiliser Claude pour analyser des cibles en Iran. Le système était trop intégré pour être débranché du jour au lendemain. La décision politique avait été prise. La réalité technique, elle, n’avait pas suivi.
Palantir, de son côté, met en avant son architecture dite « agnostique » : la plateforme peut, en théorie, tourner sur n’importe quel modèle, qu’il vienne d’OpenAI, de Meta ou d’ailleurs. En pratique, reconstruire les workflows de Maven autour d’un autre modèle que Claude prendra des mois. Mais au-delà du chantier technique, c’est le signal envoyé à toute l’industrie qui compte. Vouloir poser des limites à l’usage militaire de son IA peut valoir une mise sur liste noire fédérale. Peu importe la qualité du produit. Peu importe les certifications obtenues.
« Personne ne veut être celui qui a abattu l’avion iranien »
Ces tensions ne sont pas que politiques. Elles sont aussi profondément techniques, et les critiques viennent de l’intérieur du système lui-même. Le général John Cogbill, directeur des opérations au CENTCOM1, a publiquement donné à Maven Smart System la note de « C+ » lors d’une conférence en août 2024. Il a évoqué les hallucinations de l’IA, les biais algorithmiques, et le risque que le système conduise les opérateurs à cibler les mauvaises personnes au mauvais endroit. Alex Miller, directeur technique de l’US Army, pointe un autre problème concret : le système est trop gourmand en bande passante pour être utilisé en dessous du niveau divisionnaire, ce qui le rend inutilisable pour la grande majorité des unités combattantes sur le terrain.
Emelia Probasco, ancienne lieutenant de l’US Navy, ramène le débat à ce qu’il est vraiment : une question de responsabilité. En 2006, quand elle était responsable du tir sur un destroyer, son capitaine lui avait remis une lettre lui conférant l’autorisation d’utiliser le système AEGIS. Ce même système avait abattu en 1988 un avion de ligne iranien (Iran Air Flight 655), tuant 290 civils, après l’avoir confondu avec un chasseur ennemi. Avant de recevoir cette autorisation, elle avait passé un mois entier dans une école de défense à apprendre comment fonctionne AEGIS, dans quelles circonstances il peut se tromper, et comment réagir. Les utilisateurs de Maven, cinq ans après son déploiement à grande échelle, ne reçoivent aucune formation de ce type. « Personne ne veut être celui qui a abattu l’avion de ligne iranien », dit-elle.
D’autres spécialistes pointent un problème plus fondamental encore. Les grands modèles de langage, Claude, Gemini ou ChatGPT, ont été conçus pour satisfaire leurs utilisateurs. Leur architecture les pousse naturellement à confirmer ce que l’utilisateur pense déjà, à valider ses hypothèses plutôt qu’à les remettre en question. Pete Walker, ancien commandant de la marine américaine et docteur en sciences cognitives, est catégorique sur ce point. Dans un contexte civil, cette tendance est un défaut mineur. Dans un contexte militaire, où un analyste cherche à confirmer l’identité d’une cible ou à valider un plan de frappe, c’est une autre affaire. Un modèle qui dit à l’opérateur ce qu’il veut entendre peut contribuer à envoyer des missiles au mauvais endroit.
Il y a aussi une limite purement logistique. Les grands modèles d’IA nécessitent une connexion permanente au cloud pour fonctionner. Or le champ de bataille est précisément l’endroit où cette connexion est la plus fragile. L’Iran a ciblé plusieurs datacenters d’Amazon Web Services (AWS) au Bahreïn et aux Émirats arabes unis. La guerre électronique coupe les communications. Un système qui doit contacter un serveur distant pour traiter une requête de ciblage n’est pas seulement peu fiable en opération, il offre aussi une prise à l’adversaire.
C’est dans ce contexte qu’une nouvelle génération de startups tente de s’imposer. Fondées et dirigées par d’anciens militaires, elles promettent des modèles d’IA conçus spécifiquement pour la guerre : capables de fonctionner sans connexion cloud, entraînés sur des données de combat plutôt que sur l’internet grand public. L’argument commercial est résumé sans détour par un investisseur spécialisé : « Un modèle à 85 % des capacités mais qui tourne sur un réseau dégradé à la frontière tactique bat GPT-5 dans un datacenter inaccessible. » La logique est implacable. Et elle révèle une division du travail qui s’installe durablement : les grandes entreprises tech fournissent la puissance brute, les startups militaires fournissent l’adaptation au terrain. La chaîne s’allonge. Et à chaque maillon supplémentaire, la question de la responsabilité devient un peu plus difficile à trancher.
Déployés sans mode d’emploi
Mais le vrai sujet n’est pas la fiabilité des modèles actuels. C’est la direction dans laquelle l’ensemble du système est en train de s’engager. En décembre 2024, près de Kharkiv, la 13e Brigade de la Garde nationale ukrainienne a mené ce qui est considéré comme la première opération offensive conduite entièrement par des systèmes sans pilote. Des véhicules terrestres télécommandés ont progressé pour poser et neutraliser des mines, pendant que des drones de surveillance et d’attaque assuraient le soutien aérien. Pas un seul soldat n’a été exposé pendant l’assaut initial. Les positions défensives russes ont été détruites, et l’infanterie ukrainienne a pu avancer et tenir le terrain. Cette opération restait néanmoins contrôlée par des humains, qui observaient des flux vidéo en temps réel et séquençaient manuellement les actions. Ce qui vient ensuite est d’une autre nature. Les spécialistes parlent d’« autonomie depuis le lancement » : des systèmes qui exécutent leur mission de bout en bout sans intervention humaine, s’adaptent aux imprévus, et choisissent parmi des actions pré-autorisées même lorsqu’ils ont perdu tout contact avec leur base.
Cette transition change fondamentalement ce que signifie commander. Le commandant ne contrôle plus l’exécution des opérations en temps réel. Son rôle, désormais, c’est de les programmer à l’avance. Il ne valide plus chaque frappe : il définit les règles du jeu avant que la mission commence, spécifie quelles actions sont autorisées, lesquelles sont interdites, et ce que le système doit faire face à une situation imprévue. C’est une forme de délégation radicalement nouvelle. Et elle se déroule à une vitesse que les processus humains de validation ne peuvent tout simplement pas suivre.
Le général Christopher Donahue (US Army) ne laisse planer aucun doute sur la direction prise : « Ultimement, tout cela finira par être automatisé. » Le mémo Feinberg qui officialise Maven va dans le même sens, affirmant qu’il est « impératif » de faire des « décisions assistées par IA la pierre angulaire » de la stratégie militaire américaine. Quant à la politique officielle du Pentagone sur l’autonomie des systèmes d’armes, elle n’exige que « des niveaux appropriés de jugement humain sur l’usage de la force ». Une formulation suffisamment vague pour ne contraindre personne, sans définition légale, modifiable par simple décret présidentiel.
Les systèmes sont déployés. Mais la doctrine pour les employer n’existe pas encore. À ce jour, aucun commandement interarmées américain n’a été chargé de définir comment des formations autonomes doivent combattre, se coordonner, ou être contrôlées. L’armée la plus puissante du monde est en train de faire la guerre avec des outils dont elle n’a pas encore écrit le mode d’emploi.
Les garde-fous sont une option, pas une exigence
La dispute entre Anthropic et le Pentagone a au moins eu le mérite de forcer un débat à se tenir au grand jour, un débat qui, jusqu’ici, se déroulait dans l’obscurité des contrats classifiés et des accords d’entreprise.
Les employés d’OpenAI et de Google DeepMind qui ont signé la lettre de soutien à Anthropic ont mis des mots très précis sur ce que tout le monde pressent sans oser le formuler. « De notre position dans des laboratoires d’IA de frontière, écrivent-ils, nous comprenons qu’un système d’IA utilisé pour la surveillance de masse pourrait dissoudre les silos, en corrélant des données de reconnaissance faciale avec l’historique de localisation, les enregistrements de transactions, les graphes sociaux et les modèles de comportement de centaines de millions de personnes simultanément. » Ce n’est pas une hypothèse alarmiste. C’est une description de ce qui est techniquement possible aujourd’hui.
Le Pentagone affirme ne pas avoir l’intention d’utiliser l’IA pour surveiller les Américains en masse, et l’a formellement inscrit dans son contrat avec OpenAI. Mais ce sont les mêmes textes juridiques qui ont déjà permis, par le passé, la surveillance d’Américains avec les technologies existantes. Et pendant ce temps, xAI d’Elon Musk a signé un contrat avec le Pentagone assorti de restrictions encore moins contraignantes. Au bout du compte, le public américain n’a d’autre choix que de faire confiance à Pete Hegseth, Elon Musk et Sam Altman pour ne pas franchir la ligne. Ce n’est pas une politique publique. C’est un pari sur la vertu de trois hommes qui ont chacun, par ailleurs, amplement démontré que leurs intérêts personnels passaient avant tout le reste.
Dans une interview au Time Magazine, Dario Amodei, PDG d’Anthropic, a dit ce que peu osent dire. Y compris lui, d’habitude. « Nous ne voulons pas que les entreprises soient plus puissantes que les gouvernements. Mais nous ne voulons pas non plus que les gouvernements soient si puissants qu’ils ne puissent pas être arrêtés. Nous avons les deux problèmes en même temps. » C’est dit. Et personne ne semble avoir de réponse. Pas les entreprises d’IA, qui reconnaissent elles-mêmes « éviter d’être trop prescriptives ». Pas le Congrès américain, qui n’a toujours pas produit le moindre cadre législatif sur l’IA générative, quatre ans après l’irruption de ChatGPT. Pas l’armée non plus, dont les cycles doctrinaux s’étendent sur 15 à 20 mois dans un domaine où les mises à jour logicielles se font en quelques semaines. Tout le monde observe. Personne n’assume.
L’éviction d’Anthropic envoie un message limpide à toute l’industrie : vouloir encadrer l’usage militaire de son IA est un risque commercial. Les garde-fous éthiques sont une option, pas une exigence. Des groupes d’experts des Nations Unies ont pourtant averti que le ciblage par IA sans supervision humaine soulève des risques éthiques et juridiques considérables. Mais ces mises en garde restent sans effet contraignant. Et la désignation de Maven comme programme officiel du Pentagone dépasse le seul cadre américain. Les alliés de l’OTAN qui cherchent à harmoniser leurs systèmes avec l’infrastructure militaire américaine regardent ce qui se passe à Washington. Maven est déjà déployé dans plusieurs pays membres. La question de savoir si ce modèle, avec ses lacunes et son absence de gouvernance, va s’imposer comme référence n’est pas tranchée. Mais la direction est là.
Le dernier maillon de la chaîne porte un uniforme
La question que soulève tout cela n’est pas technique. Elle est démocratique, et aussi ancienne que la guerre elle-même : qui décide d’envoyer des hommes mourir, et qui en assume les conséquences ?
La guerre se joue aussi désormais sur les marchés financiers. Avant l’opération « Epic Fury », des milliards de dollars s’échangeaient sur Polymarket, la principale plateforme de paris en ligne sur les événements géopolitiques, permettant à n’importe qui de parier sur la probabilité et le calendrier d’une frappe américaine contre l’Iran. En théorie, ces marchés agrègent de l’information dispersée pour produire une probabilité collective. En pratique, un acteur étatique disposant de quelques millions de dollars peut acheter anonymement des contrats, faire monter la probabilité perçue d’une frappe de 25 à 60 %, et créer l’apparence d’une fuite d’information classifiée. Alliés et adversaires regardent les mêmes chiffres. Ils ajustent leurs décisions en conséquence. Des marchés conçus pour prévoir la guerre peuvent ainsi contribuer à la déclencher.
Dans ce paysage, les soldats qui portent le risque ultime, ceux qui ne peuvent pas démissionner quand les conditions changent, se retrouvent utilisateurs finaux de logiciels conçus à Palo Alto, testés dans des démonstrations pour investisseurs, et déployés avant que quiconque ait écrit le mode d’emploi. Ce sont eux qui seront au poste de commandement quand l’algorithme se trompera de cible. Ce sont eux qui vivront avec les conséquences de décisions prises par des gens qui, eux, ont toujours la possibilité de se lever et de partir.
Alex Karp, PDG de Palantir, a déclaré lors de l’AIPCon 9 : « Parfois, cela signifie que les gens de l’autre côté ne rentrent pas chez eux. » La remarque a été faite quelques jours après la frappe sur l’école de Minab. Palantir a refusé de dire si ses systèmes avaient joué un rôle dans cette frappe.
Que Maven tienne ses promesses ou génère ses premiers accidents graves en conditions réelles, une chose est acquise : l’IA militaire n’est plus un projet expérimental. Elle est inscrite dans le budget fédéral, intégrée aux opérations en cours, validée au plus haut niveau du Pentagone. Et l’idée qu’une entreprise technologique puisse poser des limites éthiques à son usage militaire vient de prendre un sérieux coup. Ce qui s’installe durablement, c’est une architecture de décision létale construite par des entreprises privées, financée par des marchés, opérée par des algorithmes. Et gouvernée, pour l’instant, par personne.
La Silicon Valley a appris à parler le langage du sacrifice. Pas encore à en assumer le poids. Pendant ce temps, les systèmes tournent. 5000 cibles par jour. Et personne, juridiquement, éthiquement, démocratiquement, n’est vraiment responsable de ce qui se passe quand ils se trompent.
Image © CENTCOM
- United States Central Command ↩︎