L'armée américaine a franchi une étape décisive vers ce qu'elle qualifie de « force de combat axée sur l'IA ». Ce mois-ci, le Pentagone a annoncé des accords avec huit des entreprises technologiques les plus influentes des États-Unis pour déployer l'intelligence artificielle directement sur ses réseaux militaires les plus classifiés.
Cet accord concerne Google, Microsoft, OpenAI, SpaceX, Nvidia, Amazon Web Services, Oracle et une start-up nommée Reflection.
Voici cinq points essentiels :
Ce que le Pentagone a signé
Le Pentagone a annoncé que les systèmes d'IA des huit entreprises sont désormais autorisés à fonctionner sur des réseaux classifiés de niveau d'impact 6 (traitement de données secrètes) et de niveau d'impact 7 (les systèmes militaires les plus sensibles).
Selon l'Associated Press, ces technologies permettront aux forces armées de réduire le temps nécessaire pour identifier et frapper des cibles, tout en facilitant la maintenance des armements et la logistique de la chaîne d'approvisionnement.
Le Pentagone a précisé que le personnel militaire utilise déjà l'IA via sa plateforme officielle, GenAI.mil, qui compte plus de 1,3 million d'utilisateurs au sein du département de la Défense. Cette annonce accélère la stratégie du Pentagone visant à « construire une architecture qui empêche la dépendance vis-à-vis d'un fournisseur unique d'IA », en diversifiant ses fournisseurs entre modèles open source et propriétaires.
En résumé, l'armée américaine ne teste plus seulement l'IA : elle la déploie à grande échelle dans certains des environnements les plus sensibles au monde.
Que vont faire les entreprises ?
Les huit entreprises couvrent l'ensemble du spectre des capacités américaines en matière d'IA.
OpenAI apporte ses modèles ChatGPT, déjà déployés dans certains environnements du Pentagone depuis mars. Google fournit ses modèles Gemini, mis en service sur GenAI.mil en avril.
Microsoft et Amazon Web Services assurent l'infrastructure cloud. Nvidia propose ses modèles open source Nemotron, conçus pour permettre à des agents d'IA d'exécuter des tâches de manière autonome.
Suite à sa fusion avec xAI, la société d'Elon Musk, SpaceX est désormais considérée comme un fournisseur d'IA, ce qui lui donne accès à la suite de modèles Grok.
Reflection, la seule nouvelle venue, est une start-up soutenue par Nvidia et dirigée par d'anciens chercheurs de Google DeepMind.
Le Pentagone a indiqué que les outils fournis par ces entreprises permettraient de « rationaliser la synthèse des données, d'améliorer la compréhension de la situation et d'optimiser la prise de décision des combattants dans des environnements opérationnels complexes ».
Oracle a été ajouté à la liste quelques heures après l'annonce initiale, portant le total à huit.
L'entreprise qui a dit "non"
Une entreprise majeure d'IA manquait à l'appel : Anthropic, qui a refusé de participer à l'accord pour des raisons éthiques.
D'abord, Anthropic s'oppose à l'utilisation de son modèle Claude pour la surveillance de masse des citoyens américains, estimant que la surveillance par IA des déplacements, des habitudes de navigation et des fréquentations est incompatible avec des valeurs démocratiques.
Ensuite, l'entreprise refuse de fournir des systèmes destinés à des armes entièrement autonomes qui élimineraient l'intervention humaine dans les décisions de ciblage, arguant que l'IA actuelle n'est pas suffisamment fiable pour des décisions aussi critiques.
Le refus d'Anthropic a provoqué un différend : le Pentagone l'a désignée comme un risque pour la chaîne d'approvisionnement, une première pour une entreprise américaine.
Anthropic a intenté deux poursuites distinctes contre l'administration américaine, saisissant des juges fédéraux à San Francisco et à Washington pour faire annuler la désignation. Un juge fédéral a ensuite bloqué la démarche du gouvernement, estimant que la désignation était probablement « prétexte ».
Malgré cette bataille juridique, des signes d'une possible résolution apparaissent. La chef de cabinet de Trump, Susie Wiles, a rencontré le PDG d'Anthropic, Dario Amodei, à la Maison Blanche. Après cette rencontre, Trump a déclaré à CNBC qu'un accord était « possible », ajoutant : « Ils sont très intelligents et je pense qu'ils peuvent être d'une grande utilité. »
Alerte éthique : Qui surveille ?
Ces accords ont immédiatement suscité l'inquiétude des organisations de défense des libertés civiles et des experts en intelligence artificielle. Les questions relatives au contrôle humain, à la transparence et aux risques liés au déploiement de l'IA dans des contextes militaires à haut risque restent largement sans réponse.
Le Pentagone a exigé que les fournisseurs d'IA acceptent que leurs modèles puissent être utilisés à « toute fin légale », empêchant de fait les entreprises d'imposer leurs propres limites à l'utilisation militaire de leur technologie. Les organisations de défense des libertés civiles ont averti que cette exigence ouvre la porte à des systèmes de ciblage d'armes autonomes et à une surveillance intérieure de masse, des usages qu'Anthropic avait refusés.
Helen Toner, directrice exécutive par intérim du Centre pour la sécurité et les technologies émergentes de l'université de Georgetown, a déclaré à l'Associated Press que si l'IA peut contribuer à la synthèse d'informations et à l'analyse des flux de surveillance, les questions relatives à l'implication humaine, aux risques et à la formation restent à l'étude.
L'annonce du Pentagone n'a pas précisé les conditions financières, ni détaillé le mode de contrôle des outils d'IA, ni clarifié les garanties permettant d'empêcher leur utilisation abusive sur le terrain.
Une nouvelle course aux armements dans la guerre par l'IA
La décision du Pentagone s'inscrit dans un contexte plus large : la Chine développe activement ses propres capacités d'IA militaire, et la course à la domination de la guerre assistée par l'IA oppose désormais clairement les deux superpuissances mondiales.
Le Pentagone affirme que ses capacités croissantes en IA « donneront aux combattants les outils nécessaires pour agir avec assurance et protéger la nation contre toute menace », indiquant que l'armée a déjà réduit de nombreuses tâches « de plusieurs mois à quelques jours ».
Les analystes mettent toutefois en garde contre les risques importants liés à cette rapidité et cette efficacité accrues, notamment le risque d'erreurs d'appréciation, d'escalade incontrôlée et d'érosion du jugement humain dans des décisions cruciales.
Le procès intenté par Anthropic, toujours en cours, pourrait à terme définir le cadre juridique de l'IA en temps de guerre. Pour l'heure, ces systèmes sont déjà présents dans les salles les plus secrètes du Pentagone et les règles d'engagement sont encore en cours d'élaboration.















