Pentagon vs. KI: Erst Anthropic, nun OpenAI?

Anthropic verweigert militärische KI-Nutzung ohne klare Grenzen und wird vom Pentagon als Sicherheitsrisiko eingestuft. OpenAI stimmt einem Deal zu, erntet Kritik und korrigiert anschließend Details. Ein Deep Dive in den geopolitischen KI-Machtkampf.

Inhalt

Nochmal von Anfang an: Was ist passiert?

Der Bruch zwischen Anthropic und dem Pentagon

Der Konflikt begann mit klaren Grenzen. Anthropic-Chef Dario Amodei wollte vertraglich festhalten, dass Claude nicht für inländische Massenüberwachung und nicht für vollständig autonome Waffensysteme eingesetzt werden darf.

Das US-Verteidigungsministerium (DoW / Pentagon) forderte hingegen die Zustimmung zu „allen legalen Einsatzmöglichkeiten“.

Anthropic lehnte ab.

Die Reaktion folgte unmittelbar:

  • Das Pentagon stufte Anthropic als „Supply-Chain Risk to National Security“ ein
  • Auftragnehmer durften keine neuen Geschäfte mit Anthropic tätigen
  • Präsident Trump forderte Bundesbehörden auf, Anthropic-Software nicht mehr zu nutzen
  • Eine sechsmonatige Übergangsfrist wurde eingeräumt

Bemerkenswert:
Die Einstufung als Lieferkettenrisiko traf bislang fast ausschließlich ausländische Firmen – nicht US-KI-Unternehmen (so wie es Anthropic ist).

Anthropic kündigte rechtliche Schritte an.

OpenAI springt ein und löst einen Sturm aus

Kurz nach der Eskalation veröffentlichte Sam Altman auf X die Meldung:

OpenAI habe eine Vereinbarung mit dem DoW geschlossen, um Modelle auf klassifizierten Netzwerken einzusetzen.”

Das klang nach einem klaren Kurswechsel. Während Anthropic blockiert wurde, sicherte sich OpenAI den Deal.

Der Shitstorm folgte sofort:

  • Vorwurf der vollständigen militärischen Kooperation
  • Sorge um Massenüberwachung
  • Kritik an möglicher Beteiligung an autonomen Waffensystemen

Das Problem: Die erste Kommunikation war vage.

Viele interpretierten den Deal als Blankoscheck für militärische KI-Nutzung.

Altman rudert jetzt zurück – neue Klauseln, neue Klarstellung

Am Wochenende veröffentlichte Altman ein internes Update.

Er räumte ein:

„Wir hätten das am Freitag nicht überstürzt kommunizieren sollen.“

https://x.com/sama/status/2028640354912923739

OpenAI ergänzte den Vertrag um explizite Schutzklauseln:

  • Kein Einsatz für inländische Massenüberwachung
  • Schutz gemäß Fourth Amendment, FISA und National Security Act
  • Kein gezieltes Tracking oder Monitoring von US-Personen
  • Keine Nutzung durch Geheimdienste wie die NSA ohne separate Vertragsänderung

Altman betonte außerdem:

Zugleich forderte er, Anthropic sollten dieselben Bedingungen angeboten werden.

Jetzt ähnliches entdecken

Künstliche Intelligenz ist längst im Unternehmensalltag angekommen. Der EU AI Act sorgt nun dafür, dass sie auch verantwortungsvoll eingesetzt wird. Doch was bedeutet das konkret für Unternehmen und warum spielt KI-Compliance dabei eine zentrale Rolle? Dieser Beitrag gibt einen klaren, verständlichen Überblick über den EU AI Act, seine Fristen und Pflichten. Wie immer ohne Techsprache, aber mit Blick auf die Praxis.
Microsoft macht Windows zum KI-Betriebssystem, Oura trackt jetzt auch Glukose & Mahlzeiten – und beim OMR-Festival sorgt KI für Hollywood-Vibes, Debatten und TikTok-Fußball. Willkommen im neuen Normal.
Neue Studien enthüllen die Schwächen großer KI-Modelle wie GPT-4 beim Schlussfolgern, während McKinsey zeigt, dass KI 165.000 Jobs im öffentlichen Dienst ersetzen könnte... Entdecke die spannenden Entwicklungen und Herausforderungen des KI-Versums dieser Woche!
Scroll to Top

Systemhäuser aufgepasst!

Werden Sie KI-Partner und vermitteln Sie Sie AZAV-zertifizierte KI-Schulungen für EU AI Act Compliance. 

Die Zukunft nicht verpassen

Newsletter Abonnieren

Trends und Entwicklungen im Bereich der Künstlichen Intelligenz

sdfsdfs