Anzeige
Skip to content

Anonyme Quellen enthüllen, woran der Anthropic-Pentagon-Deal wirklich scheiterte

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Das Pentagon wollte Anthropics KI laut anonymen Quellen zur Analyse von Massendaten US-amerikanischer Bürger nutzen – darunter Standortdaten, Browserverläufe und Kreditkartentransaktionen.
  • OpenAI-Chef Sam Altman sprang ein und handelte innerhalb eines Tages einen Deal mit dem Pentagon aus, obwohl er kurz zuvor noch öffentlich Solidarität mit Anthropic signalisiert hatte. OpenAI akzeptierte, dass seine KI für "alle rechtmäßigen Zwecke" eingesetzt werden kann, sagt aber, Massenüberwachung und die Steuerung von autonomen Waffen seien ausgeschlossen.
  • Laut der ehemaligen OpenAI-Geopolitik-Chefin Sarah Shoker verfügt keines der führenden KI-Unternehmen über schlüssige Richtlinien für den militärischen Einsatz. Die Nutzungsbedingungen seien bewusst vage, um der Unternehmensführung Handlungsspielraum zu bewahren.

Neue Berichte der New York Times und des Atlantic zeichnen ein detailliertes Bild der letzten Verhandlungsstunden zwischen Anthropic und dem Pentagon. Im Zentrum: Massendaten von US-Bürgern, eine verworfene Cloud-Lösung und ein paralleler OpenAI-Deal, der längst in der Schublade lag.

Laut dem Atlantic erfuhr Anthropic am Freitagmorgen, dass Hegseths Team eine wichtige Konzession machen würde: Das Pentagon hatte in früheren Vertragsentwürfen wiederholt versucht, Zusagen mit Formulierungen wie "as appropriate" (sinngemäß: "soweit angemessen") zu relativieren, was Schlupflöcher für spätere Neuinterpretationen offen ließ. Diese Worte sollten nun gestrichen werden.

Doch am Freitagnachmittag stellte sich heraus, dass ein zentrales Problem blieb: Das Pentagon wollte Anthropics KI zur Analyse sogenannter Massendaten von US-Bürgern einsetzen. Laut der New York Times forderte der Technologiechef des Pentagons, Emil Michael, ein ehemaliger Uber-Manager, konkret die Erlaubnis zur Sammlung und Auswertung von unklassifizierten, kommerziellen Daten, darunter Standortdaten und Browserverläufe. Der Atlantic-Bericht fächert die Datentypen noch weiter auf: Chatbot-Anfragen, Google-Suchverläufe, GPS-Bewegungsdaten und Kreditkartentransaktionen, die miteinander abgeglichen werden könnten.

Anthropic bot als Gegenvorschlag an, seine Technologie dem US-Auslandsgeheimdienst NSA für klassifiziertes Material im Rahmen des Gesetzes zur Überwachung ausländischer Nachrichtendienste (FISA) zur Verfügung zu stellen. Im Gegenzug forderte das Unternehmen eine rechtsverbindliche Zusage, dass unklassifizierte kommerzielle Daten von Amerikanern ausgenommen würden. Das Pentagon lehnte ab.

Anzeige
DEC_D_Incontent-1

Wie persönliche Feindschaften das Ende beschleunigten

Am 24. Februar hatte Verteidigungsminister Pete Hegseth Anthropic-Chef Dario Amodei zu einem Treffen ins Pentagon einbestellt. Das Gespräch dauerte laut der New York Times weniger als eine Stunde, die Atmosphäre war kühl. Am Ende stellte Hegseth ein Ultimatum: Sollte Anthropic bis Freitag, 17:01 Uhr, nicht einlenken, werde das Unternehmen als "Supply Chain Risk" eingestuft, also als Sicherheitsrisiko in der Lieferkette. Hegseth drohte zudem mit dem Verteidigungsproduktionsgesetz, das Anthropic zur Zusammenarbeit hätte zwingen können. Dieser Schritt wurde später fallengelassen.

In den letzten Minuten vor der Frist verlangte Michael auf einem Telefonat mit Anthropic-Führungskräften, mit Amodei persönlich zu sprechen. Ihm wurde mitgeteilt, dass Amodei in einer Sitzung mit seinem Führungsteam sei und mehr Zeit brauche. Michael war mit dieser Antwort nicht zufrieden. Um 17:14 Uhr erklärte Hegseth Anthropic dann zum "Supply Chain Risk" und ordnete an, dass sämtliche Auftragnehmer, Zulieferer und Partner des Militärs die Zusammenarbeit einstellen. Diese Einstufung war bislang ausländischen Unternehmen vorbehalten und wurde noch nie gegen eine US-Firma angewandt.

Die drei Hauptfiguren kennen sich seit Jahren aus dem Silicon Valley. Amodei und Sam Altman, beide 40, arbeiteten einst gemeinsam bei OpenAI und gelten als erbitterte Rivalen. Michael hatte im Mai 2025 als Technologiechef im Verteidigungsministerium angefangen, nachdem er zuvor unter der Obama-Regierung als Sonderassistent im Pentagon gedient hatte. Er führte die Verhandlungen mit Anthropic.

Michael, 53, beschimpfte Amodei während der laufenden Verhandlungen öffentlich auf X als "Lügner" mit "Gottkomplex" und schrieb, Amodei wolle "nichts mehr, als persönlich das US-Militär zu kontrollieren, und riskiert dabei die nationale Sicherheit". Michael bevorzugte letztlich Altman, der die Trump-Regierung aktiv umworben hatte, so die Quellen der New York Times.

Anzeige
DEC_D_Incontent-2

Präsident Trump hatte die Eskalation offenbar eingeplant: Er teilte Hegseth am Freitagmorgen mit, dass er bereits einen Beitrag auf Truth Social vorbereitet hatte, der Anthropic herabsetzte und allen Regierungsbehörden befahl, die Zusammenarbeit innerhalb von sechs Monaten einzustellen. Trump veröffentlichte den Post um 15:47 Uhr, also noch während die Verhandlungen liefen. Selbst danach sprachen beide Seiten weiter.

Autonome Waffen: Warum Anthropic die Cloud-Lösung verwarf

Neben der Überwachungsfrage war auch der Einsatz autonomer Waffensysteme ein zentraler Streitpunkt. Laut dem Atlantic lehnte Anthropic die Nutzung seiner KI in autonomen Waffen nicht grundsätzlich ab. Das Unternehmen bot sogar an, direkt mit dem Pentagon an der Verbesserung der Zuverlässigkeit solcher Systeme zu arbeiten. Anthropics Position war, dass die eigenen Modelle derzeit noch nicht zuverlässig genug seien: So wie selbstfahrende Autos in manchen Fällen bereits sicherer seien als menschliche Fahrer, könnten auch Kampfdrohnen eines Tages präziser als ein menschlicher Bediener sein. Doch diesen Schwellenwert hätten die Modelle noch nicht erreicht, und ein fehlerhafter Einsatz könnte Zivilisten oder eigene Truppen gefährden.

Während der Verhandlungen wurde vorgeschlagen, die KI-Modelle nur in der Cloud zu belassen und nicht direkt in die Waffensysteme selbst zu integrieren. Anthropic verwarf diesen Ansatz nach kurzer Prüfung: In modernen militärischen Architekturen sei die Grenze zwischen Cloud und dem Einsatzort keine Mauer, sondern ein fließender Übergang. Drohnen auf dem Schlachtfeld könnten über vernetzte Systeme mit Cloud-Rechenzentren verbunden werden. Das Pentagon arbeite mit seinem Programm "Joint Warfighting Cloud Capability" aktiv daran, Rechenressourcen näher an den Kampf zu bringen. Ob ein Modell in einem Amazon-Web-Services-Server in Virginia oder in einem Kriegsgebiet sitze, sei ethisch gesehen ohne Bedeutung, wenn es Gefechtsfeld-Entscheidungen treffe.

OpenAI führt in seinem Abkommen mit dem Pentagon genau diese Cloud-Architektur wiederum als Argument an: die eigene Cloud-only-Architektur schließe "vollständig" autonome Waffen aus, da diese Edge-Deployment erfordern würden. Anthropic hatte dieselbe Lösung geprüft und als unzureichend verworfen.

OpenAI hatte den Deal bereits in der Schublade

Laut der New York Times rief Altman Michael bereits am 25. Februar an, einen Tag nach Hegseths Ultimatum an Amodei. Innerhalb eines Tages hatten sie ein grobes Rahmenwerk erarbeitet. OpenAI akzeptierte die Pentagon-Forderung, dass die KI für "alle rechtmäßigen Zwecke" genutzt werden könne, handelte aber das Recht auf technische Leitplanken gemäß eigener Sicherheitsgrundsätze aus.

Das ist insofern bemerkenswert, als Altman zuvor in derselben Woche öffentlich erklärt hatte, auch OpenAI werde seine Modelle nicht in autonomen Waffensystemen einsetzen lassen, also Solidarität mit Anthropic signalisiert hatte. Am Freitagabend um 22 Uhr, während Anthropics Anwälte bereits an einer Klage gegen das Pentagon arbeiteten, telefonierte Altman mit Michael, um die letzten Einzelheiten zu klären. Anschließend kündigte Altman die Vereinbarung auf X an. Hegseth teilte Altmans Ankündigung von seinem persönlichen Konto aus.

Am Samstag stellte sich Altman Fragen auf X und formulierte seine Haltung so: "Wir wollen nicht die Möglichkeit haben, uns zu einer bestimmten (und legalen) militärischen Aktion zu äußern. Aber wir wollen wirklich die Möglichkeit haben, unsere Expertise zu nutzen, um ein sicheres System zu entwerfen."

Ehemalige OpenAI-Mitarbeiterin: Nutzungsrichtlinien sind bewusst vage

Sarah Shoker, die rund drei Jahre das Geopolitik-Team bei OpenAI leitete, bevor sie das Unternehmen im Juni 2025 verließ, sieht den Konflikt nüchterner. Ihr Fazit: Keines der führenden KI-Unternehmen verfüge über schlüssige Richtlinien für den militärischen Einsatz seiner Technologie. Die Nutzungsbedingungen seien bewusst vage gehalten, um der Unternehmensführung Handlungsspielraum zu bewahren.

Shoker weist in einem Substack-Beitrag darauf hin, dass Anthropics Forderungen im Grunde dem bestehenden US-Recht entsprechen: Die Verteidigungsrichtlinie 3000.09 schreibt "angemessene menschliche Urteilsfähigkeit" bei autonomen Waffensystemen vor. Dass das Pentagon dennoch die Konfrontation suchte, erklärt sie unter anderem damit, dass die Regierung Stärke demonstrieren wolle und eine Zustimmung zu Anthropics Bedingungen als Präzedenzfall für künftige Verhandlungen problematisch wäre.

Besonders kritisch sieht Shoker OpenAIs Formulierung, die Technologie nicht zur "Steuerung" ("direct") autonomer Waffensysteme einzusetzen. Das Wort lasse erheblichen Spielraum: OpenAI könne seine Modelle als Teil eines autonomen Waffensystems akzeptieren, solange sie nicht die letzte Entscheidung treffen.

Auch Amodeis Haltung sei nicht so grundsatztreu, wie sie erscheine, schreibt Shoker. In seinem Statement vom 26. Februar habe er die Möglichkeit offengelassen, künftig vollautonome Systeme ohne menschliche Aufsicht zu unterstützen, wenn die Technik zuverlässig genug sei. Als sie 2021 bei OpenAI anfing, habe ein vollständiges Verbot militärischer Nutzung gegolten. 2024 sei dieses aufgeweicht worden, mit bewusst unspezifischer Sprache.

Anthropic klagt, Geheimdienste drängen auf Einigung

Anthropic hat angekündigt, gegen die Einstufung als "Supply Chain Risk" zu klagen. US-Geheimdienste, darunter die CIA, die Anthropics KI-Technologie aktiv nutzt, drängen laut der New York Times hinter den Kulissen auf eine Einigung beider Seiten. Einige aktuelle und ehemalige Beamte hoffen demnach weiterhin auf ein Friedensabkommen.

Im Pentagon-Pilotprogramm im vergangenen Jahr war Anthropic noch das einzige KI-Unternehmen, das seine Technologie für klassifizierte Systeme bereitgestellt hatte.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.