Anthropic face au Department of War : bras de fer historique sur l’IA militaire et la surveillance

Le ton est monté d’un cran entre Anthropic et le Department of War américain. En l’espace de quelques jours, deux communiqués officiels ont transformé de discrètes négociations contractuelles en affrontement public. Au cœur du conflit : l’usage de l’intelligence artificielle dans la défense nationale, et surtout les limites que doit — ou non — s’imposer une entreprise privée lorsque sa technologie devient stratégique.

D’un côté, l’entreprise dirigée par Dario Amodei affirme soutenir pleinement la sécurité nationale américaine. De l’autre, le Secretary of War Pete Hegseth menace de classer Anthropic comme « risque pour la chaîne d’approvisionnement » si elle refuse certains usages militaires de son modèle Claude. Un bras de fer inédit qui pose une question centrale : jusqu’où l’IA doit-elle aller dans la guerre moderne ?

anthropic ia

Un partenariat stratégique devenu tension politique

Dans son premier communiqué, Dario Amodei rappelle que son entreprise n’a jamais été hostile à la collaboration avec la défense américaine. Au contraire. Anthropic affirme avoir été la première société d’IA de pointe à déployer ses modèles sur des réseaux gouvernementaux classifiés, ainsi que dans des laboratoires nationaux. Claude serait déjà utilisé pour l’analyse de renseignement, la simulation stratégique, la planification opérationnelle et les opérations cyber.

L’entreprise insiste également sur ses efforts pour préserver l’avantage technologique américain face aux puissances autoritaires. En effet, elle affirme avoir renoncé à plusieurs centaines de millions de dollars en coupant l’accès à Claude à des entités liées au Parti communiste chinois, et avoir soutenu des contrôles stricts sur l’exportation de puces avancées.

Mais deux lignes rouges ont été posées par Anthropic, elles sont au centre de la crise actuelle.

La première concerne la surveillance de masse intérieure. L’entreprise estime que l’IA moderne permettrait d’agréger d’énormes volumes de données publiques ou commercialement accessibles (localisation, navigation web, réseaux sociaux) pour reconstituer automatiquement et à grande échelle la vie complète d’un individu. Même si certaines pratiques sont aujourd’hui légales, Anthropic considère que les capacités actuelles de l’IA changent radicalement l’équilibre et représentent une menace sérieuse pour les libertés fondamentales.

La seconde ligne rouge concerne les armes entièrement autonomes, c’est-à-dire des systèmes capables de sélectionner et d’engager des cibles sans intervention humaine. Anthropic reconnaît que l’autonomie partielle est déjà utilisée sur certains théâtres d’opérations modernes, mais estime que les modèles d’IA actuels ne sont pas suffisamment fiables pour être placés au cœur d’un système létal totalement autonome. Selon l’entreprise, le risque d’erreur reste trop élevé pour les soldats comme pour les civils.

Menaces politiques envers Anthropic et précédent inédit

La situation a basculé lorsque Pete Hegseth a publiquement annoncé son intention de désigner Anthropic comme « risque pour la chaîne d’approvisionnement ». Une qualification historiquement réservée à des entités étrangères considérées comme hostiles aux États-Unis.

Selon le second communiqué d’Anthropic, le Department of War aurait exigé que l’entreprise accepte « tout usage légal » de sa technologie, sans exception, et supprime les garde-fous concernant la surveillance de masse et les armes autonomes. En cas de refus, plusieurs menaces auraient été évoquées : retrait des systèmes gouvernementaux, désignation officielle comme risque stratégique, voire invocation de la Defense Production Act pour forcer la modification des conditions d’utilisation.

Anthropic dénonce une contradiction : qualifier l’entreprise de risque tout en considérant son modèle comme essentiel à la sécurité nationale. Elle affirme qu’une telle désignation serait juridiquement infondée et créerait un précédent dangereux pour toute entreprise technologique américaine négociant avec le gouvernement.

Surtout, la société se dit prête à contester toute décision en justice.

Une bataille symbolique pour l’avenir de l’IA militaire

Ce conflit pourrait devenir un précédent majeur dans la relation entre Big Tech et institutions militaires.

En effet, si Anthropic cède, cela renforcerait l’idée que la souveraineté nationale prime systématiquement sur les garde-fous privés. Si elle résiste et obtient gain de cause, cela consacrerait un nouveau modèle où les fournisseurs d’IA conservent un droit de regard éthique sur l’usage de leurs technologies.

Pour les démocraties occidentales, l’enjeu est double : maintenir une avance stratégique face aux régimes autoritaires tout en préservant les principes fondamentaux qu’elles prétendent défendre.

Dans un monde où l’IA devient une infrastructure critique comparable à l’énergie ou aux télécommunications, la question n’est plus seulement technologique. Elle est politique, juridique et philosophique.

Et le bras de fer entre Anthropic et le Department of War pourrait bien n’être que le premier d’une longue série.