TECHNOLOGIE / Anthropic face au Pentagone : 200 millions de dollars contre ses principes d’« IA responsable ».
TECHNOLOGIE / Anthropic face au Pentagone : 200 millions de dollars contre ses principes d’« IA responsable ».
Un documentaire de Agence Presse Audio
Le compte à rebours est lancé. Ce vendredi 27 février 2026, Anthropic joue gros : soit la start-up californienne accepte d’élargir l’usage militaire de ses modèles d’intelligence artificielle, soit elle risque de perdre un contrat estimé à 200 millions de dollars avec le département américain de la Défense.
Un documentaire de
Agence Presse Audio
Mise en ligne
27 Février 2026
Réalisation
Agence Presse Audio
Mise en onde & mix
Agence Presse Audio
Illustration
Agence Presse Audio
Production
Agence Presse Audio
Le compte à rebours est lancé. Ce vendredi 27 février 2026, Anthropic joue gros : soit la start-up californienne accepte d’élargir l’usage militaire de ses modèles d’intelligence artificielle, soit elle risque de perdre un contrat estimé à 200 millions de dollars avec le département américain de la Défense. Au cœur du bras de fer, une clause exigée par le Pentagone : autoriser l’utilisation des modèles d’Anthropic pour « tout usage légal » dans un cadre militaire, sans restriction supplémentaire. Une formulation large, juridiquement solide, mais politiquement explosive.
Car jusqu’ici, l’entreprise, créatrice du chatbot Claude et concurrente directe de OpenAI, s’est imposé des lignes rouges strictes. Deux applications restent formellement exclues de sa doctrine interne : la surveillance domestique de masse ; les systèmes d’armes létales entièrement autonomes, sans humain dans la boucle décisionnelle. Selon le média américain The Verge, les négociations sont particulièrement tendues. Le ministère de la Défense aurait fixé un ultimatum clair : accepter la clause ou sortir du jeu.
Une menace à double tranchant
En cas de refus, les conséquences pourraient dépasser la simple perte financière. Le Pentagone brandit deux leviers juridiques : invoquer une loi fédérale datant de 1950 pour contraindre l’entreprise à coopérer au nom de la sécurité nationale ; classer Anthropic parmi les fournisseurs « à risque » pour l’approvisionnement stratégique américain. Un classement qui aurait un effet domino redoutable. Toute entreprise contractant avec le Pentagone ne pourrait plus travailler avec Anthropic. Or plusieurs géants de la défense et du cloud – notamment Amazon Web Services et Palantir Technologies – exploitent déjà ses modèles d’IA dans leurs propres solutions. Autrement dit, être blacklisté reviendrait à s’auto-exclure d’une large part de l’écosystème technologique américain lié à la défense.
L’IA responsable à l’épreuve du réel
Ce dossier dépasse la simple question contractuelle. Il pose frontalement le dilemme qui traverse aujourd’hui l’industrie de l’intelligence artificielle : peut-on défendre une « IA responsable » tout en collaborant avec des institutions militaires ? Anthropic s’est construite sur un positionnement éthique fort, mettant en avant la sûreté, l’alignement et la limitation des usages sensibles. Céder pourrait fragiliser sa crédibilité auprès du grand public et des investisseurs sensibles aux enjeux éthiques. Refuser pourrait l’isoler stratégiquement dans un contexte géopolitique où l’IA est devenue un levier central de puissance. Derrière ces 200 millions de dollars, se joue en réalité une bataille bien plus large : celle du contrôle des normes d’usage de l’intelligence artificielle à l’ère de la compétition stratégique. Vendredi, Anthropic ne choisira pas seulement un contrat. Elle choisira le camp où elle veut inscrire son avenir.
Texte et récit : Marie-Paule N'GUESSAN



0 Commentaire(s)