L'article Un juge fédéral empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale – Bitcoin News est apparu sur BitcoinEthereumNews.com. Le tribunal suspend TrumpL'article Un juge fédéral empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale – Bitcoin News est apparu sur BitcoinEthereumNews.com. Le tribunal suspend Trump

Juge fédéral bloque le Pentagone d'étiqueter Anthropic comme menace pour la sécurité nationale – Bitcoin News

2026/03/29 02:39
Temps de lecture : 5 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

Un tribunal bloque l'interdiction de l'administration Trump sur l'IA Claude d'Anthropic pour les agences fédérales

La juge fédérale américaine Rita F. Lin a émis l'injonction préliminaire le 26 mars, estimant que les actions du gouvernement contre Anthropic violaient probablement le Premier Amendement, privaient l'entreprise d'une procédure régulière et dépassaient l'autorité statutaire en vertu de la loi sur les procédures administratives. La décision est suspendue pendant sept jours, donnant à l'administration jusqu'au 2 avril environ pour déposer un appel d'urgence auprès du neuvième circuit.

Le différend a commencé lorsque le département de la Défense (DoD) a demandé un accès illimité à Claude pour un usage fédéral. Anthropic avait longtemps maintenu deux exceptions dans sa politique d'utilisation acceptable : Claude ne serait pas utilisé pour la surveillance de masse des citoyens américains ou pour des systèmes d'armes autonomes létales fonctionnant sans supervision humaine significative. Le DoD a exigé que ces garde-fous soient supprimés. Anthropic a refusé.

Les négociations ont échoué fin 2025. Le conflit est devenu public par le biais de déclarations écrites du PDG Dario Amodei et d'un essai exposant la position de l'entreprise sur la sécurité de l'IA. Les responsables du DoD ont considéré les restrictions comme une tentative d'Anthropic de dicter la politique gouvernementale.

Le 27 février 2026, le président Trump a publié sur Truth Social, ordonnant à toutes les agences fédérales de cesser immédiatement d'utiliser la technologie Anthropic, avec une période de retrait progressif de six mois. Le secrétaire à la Défense Pete Hegseth a annoncé une désignation de risque pour la chaîne d'approvisionnement en vertu du 10 U.S.C. § 3252 — un statut précédemment appliqué aux adversaires étrangers — qualifiant Anthropic de risque potentiel de « sabotage » et de « subversion ».

Plusieurs contractants fédéraux ont suspendu ou résilié des accords avec l'entreprise suite à cette désignation. Anthropic a réagi et déposé plainte le 9 mars dans le district nord de Californie, alléguant des représailles, des violations de la procédure régulière et des violations de la loi sur les procédures administratives. Une action connexe a été déposée devant le circuit de D.C.

Dans une ordonnance de 43 pages, la juge Lin a interdit au DoD, à 17 autres agences fédérales et au secrétaire Hegseth de mettre en œuvre ou d'appliquer l'une des actions contestées. Elle a ordonné le rétablissement du statu quo, permettant à Anthropic de poursuivre les contrats et partenariats fédéraux existants.

Lin a écrit que la conduite du gouvernement représentait « des représailles illégales classiques au Premier Amendement ». Elle a noté que le calendrier des actions, ainsi que les communications gouvernementales internes faisant référence à la « rhétorique », à « l'arrogance » et à la « pression » d'Anthropic, pointaient directement vers une intention punitive liée aux déclarations publiques de l'entreprise sur la sécurité de l'IA.

Concernant la procédure régulière, le tribunal a constaté que le gouvernement avait privé Anthropic de ses intérêts de liberté concernant sa réputation et ses opérations commerciales sans fournir de préavis de privation ni d'audience. Lin a également constaté que la désignation statutaire n'avait jamais été appliquée auparavant à une entreprise américaine dans ces circonstances et que le contrôle gouvernemental préalable d'Anthropic.

Cela inclut les autorisations Top Secret, l'autorisation FedRAMP et des contrats d'une valeur allant jusqu'à 200 millions de dollars — n'a montré aucune préoccupation de sécurité réelle. « Rien dans le statut gouvernemental ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement », a écrit Lin.

Le tribunal a constaté un préjudice financier potentiel pour Anthropic de centaines de millions à des milliards de dollars, ainsi qu'un dommage réputationnel que la réparation monétaire ne pourrait pas entièrement réparer. Les mémoires d'amici de dirigeants militaires et de chercheurs en IA ont cité des risques pour la préparation de la défense et le débat plus large sur la sécurité de l'IA.

Anthropic a déclaré être reconnaissante de la rapidité du tribunal et qu'elle prévoyait de continuer à travailler avec le gouvernement fédéral. L'entreprise a déclaré que son objectif restait de garantir que les Américains aient accès à une IA sûre et fiable.

L'injonction ne résout pas le différend contractuel sous-jacent. Aucune décision finale sur le fond n'a été rendue. Un recours distinct reste en instance devant le circuit de D.C., et l'administration conserve l'option de faire appel.

FAQ 🔎

  • Qu'a décidé le juge fédéral concernant Anthropic ? La juge fédérale américaine Rita F. Lin a émis une injonction préliminaire le 26 mars, bloquant le Pentagone et l'administration Trump d'appliquer une désignation de sécurité nationale et une interdiction fédérale contre Anthropic et ses modèles d'IA Claude.
  • Pourquoi le Pentagone a-t-il désigné Anthropic comme un risque pour la chaîne d'approvisionnement ? Le DoD a demandé un usage illimité de l'IA Claude, y compris pour la surveillance de masse et les armes autonomes, et a qualifié Anthropic de risque pour la chaîne d'approvisionnement après que l'entreprise a refusé de supprimer ces restrictions de sécurité.
  • L'injonction est-elle actuellement en vigueur ? L'injonction est suspendue pendant sept jours à partir du 26 mars pour permettre au gouvernement de déposer un appel d'urgence, ce qui signifie qu'elle n'entrera en vigueur qu'environ le 2 avril 2026.
  • Que se passe-t-il ensuite dans l'affaire Anthropic contre le Pentagone ? L'affaire se poursuit sur le fond, une action connexe reste en instance devant le circuit de D.C., et l'administration Trump pourrait demander une aide d'urgence auprès du neuvième circuit avant l'expiration de la suspension.

Source: https://news.bitcoin.com/federal-judge-blocks-pentagon-from-labeling-anthropic-a-national-security-threat/

Opportunité de marché
Logo de Chainbase
Cours Chainbase(C)
$0.08099
$0.08099$0.08099
+1.54%
USD
Graphique du prix de Chainbase (C) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.