top of page

Pentagon vs. Anthropic: Wer bestimmt, wie KI eingesetzt werden darf?

  • Nik Thomi
  • vor 6 Tagen
  • 3 Min. Lesezeit

Bild: Nano Banana 2


Ende Februar 2026 eskalierte ein Vertragsstreit zwischen dem US-Verteidigungsministerium und Anthropic (dem Unternehmen hinter dem KI-Assistenten Claude) zu einem der ungewöhnlichsten Konflikte in der Geschichte der Technologiebranche. Was dahintersteckt und warum dich das interessieren sollte.


 

In Kürze:

  • Der Kern des Streits: Anthropic wollte nicht, dass Claude für autonome Waffen oder Massenüberwachung genutzt wird. Das Pentagon wollte genau das nicht akzeptieren und kündigte den Vertrag.

  • Das Pentagon stufte Anthropic als «Supply Chain Risk» ein, als Sicherheitsrisiko für staatliche Beschaffung. Präsident Trump verbot daraufhin den Einsatz von Claude in Bundesbehörden.

  • OpenAI, das Unternehmen hinter ChatGPT, nutzte die Gunst der Stunde und schloss kurz danach seinerseits einen eigenen Pentagon-Deal.

  • Dies erzürnte wiederum haufenweise ChatGPT-Nutzerinnen und Nutzer, welche kurzerhand von ChatGPT zu Claude wechselten. Claude stieg darauf auf Platz 1 im US App Store.



Was da eigentlich passiert ist

Seit 2024 bestand zwischen Anthropic und dem US-Verteidigungsministerium ein Vertrag mit einem Volumen von bis zu 200 Millionen Dollar. Der Vertrag enthielt zwei Nutzungseinschränkungen: Claude durfte nicht für vollständig autonome Waffensysteme und nicht für die Massenüberwachung der US-Bevölkerung eingesetzt werden.


Das Pentagon forderte, diese Einschränkungen zu streichen und Claude «für alle legalen Zwecke» freizugeben. Anthropic-CEO Dario Amodei lehnte ab. Verteidigungsminister Pete Hegseth stufte das Unternehmen daraufhin als «Supply Chain Risk» ein, als Sicherheitsrisiko für staatliche Beschaffung.


Präsident Trump ordnete an, dass Bundesbehörden Anthropic-Produkte innerhalb von sechs Monaten aus ihren Systemen entfernen müssen.


OpenAI nutzte die Gunst der Stunde und gab kurz nach dem Vertragsende mit Anthropic bekannt, einen eigenen Deal mit dem Pentagon abgeschlossen zu haben. OpenAI-CEO Sam Altman erklärte, der Deal enthalte ebenfalls Einschränkungen gegen Massenüberwachung und für menschliche Kontrolle bei Waffeneinsätzen. Warum das Pentagon diesen Deal akzeptierte, den von Anthropic aber nicht, ist öffentlich nicht abschliessend erklärt.


Obwohl OpenAI-CEO Sam Altman später auf der Plattform X einräumte, der Deal habe wohl «opportunistisch und schlampig» gewirkt, war der Schaden angerichtet. Viele ChatGPT-Nutzerinnen und Nutzer goutierten den Schritt von OpenAI nicht: Der Hashtag #CancelChatGPT verbreitete sich in den sozialen Medien. Laut dem Analyseunternehmen Sensor Tower stiegen ChatGPT-Deinstallationen am 28. Februar um rund 295 Prozent gegenüber dem Vortag, während Claude-Downloads um rund 89 Prozent zulegten.



Fazit

Dieser Konflikt macht sichtbar, was bisher vor allem in Fachkreisen diskutiert wurde: Wer bestimmt, wofür KI eingesetzt werden darf? Die Unternehmen, die Regierungen, die Gesellschaft, oder alle gemeinsam? Die Antwort darauf wird in den nächsten Jahren festlegen, wie KI-Systeme in sensiblen Bereichen wie Sicherheit, Überwachung oder Verwaltung genutzt werden.


Anthropic hat in diesem Streit eine Position gehalten und dafür einen Geschäftsvertrag verloren. Ob das mutig, strategisch oder beides war, lässt sich von aussen nicht abschliessend beurteilen. Fakt ist: Die öffentliche Aufmerksamkeit, die Claude in diesen Tagen gewonnen hat, dürfte kaum mit Marketingbudget zu erkaufen gewesen sein. Und was sich sagen lässt: Die Frage, nach welchen Grundsätzen ein KI-Tool entwickelt und eingesetzt wird, ist heute relevanter denn je – für Unternehmen genauso wie für einzelne Nutzerinnen und Nutzer. Es lohnt sich, genauer hinzuschauen, welches Tool du nutzt und unter welchen Bedingungen es betrieben wird.

 


Bereit, selbst loszulegen?


Willst du wissen, wie du KI-Tools wie Claude oder ChatGPT konkret in deinem Alltag nutzen kannst – ohne Vorkenntnisse, aber mit echtem Mehrwert? In unseren KI-Workshops zeigen wir dir, was die aktuellen Tools wirklich leisten, wo ihre Grenzen sind und wie du heute damit anfängst.

Kontaktiere uns unverbindlich. Weitere Infos zu unseren KI-Workshops findest du hier.



 
 
 

Kommentare


bottom of page