Was sich in den USA gerade zusammenbraut, ist mehr als ein Streit innerhalb der Tech-Branche – es ist ein Machtkampf zwischen dem Silicon Valley und dem Pentagon, wie es ihn noch nie zuvor gab. Im Zentrum steht das KI-Unternehmen Anthropic mit seinem Sprachmodell Claude.
Das US-Verteidigungsministerium (Hauptsitz: Pentagon) hat Anthropic als „Suppy-Chain-Risk“ eingestuft. Ein drastischer Schritt, der normalerweise gegen ausländische Firmen eingesetzt wird. Zum ersten Mal trifft es ein amerikanisches Unternehmen. Mit diesem sogenannten „Lieferkettenrisiko“ will das Pentagon verhindern, dass ausländische Firmen kritische Infrastruktur zur Verfügung stellen, von der die USA abhängig werden könnte.
Das Gesetz erlaubt der US-Regierung Firmen zu bestrafen, die mit Unternehmen zusammenarbeiten, die zuvor als „Lieferkettenrisiko“ eingestuft wurden. Ein Druckmittel mit großer Wirkung: Anthropic hat schätzungsweise über 200 Milliarden Dollar verloren.
Iran-Krieg und Maduro-Verhaftung waren ausschlaggebend
Begonnen hatte der Streit wohl im Januar, als Claude bei der Entführung Venezuelas Präsidenten Maduro zum Einsatz gekommen sein soll. Dem widersprach Anthropic und machte auf die Nutzungsbedingungen aufmerksam. Anthropic untersagt den Einsatz seiner Modelle für militärische Gewalt, Massenüberwachung und der Entwicklung autonomer Waffensysteme.
Als im Februar die USA und Israel den Iran angriffen, soll Claude ebenfalls wieder herangezogen worden sein. In den ersten Stunden des wurden rund 900 Ziele getroffen – laut Experten sei das nur mithilfe von KI in dieser Größenordnung möglich gewesen: Denn wo man früher 2.000 Analysten brauchte, um Ziele zu identifizieren, reichen heute 20.
Spannungsfeld: KI im Krieg
Für das Pentagon sind die Einschränkungen, die Anthropic vorgibt ein No-Go. Laut ihnen sollte kein privates Unternehmen dem US-Militär vorschreiben, wie es Technologien einsetzt – besonders nicht in sicherheitskritischen Situationen.
Als Reaktion darauf zieht Anthropic nun vor Gericht. In seiner Klage argumentiert das Unternehmen, dass die US-Regierung das Recht auf freie Meinungsäußerung verletze. Das Verteidigungsministerium würde mit der Einstufung Anthropics als „Lieferkettenrisiko“ die Firma für seine Grundsätze bestrafen.
Streit mit globaler Sprengkraft
Gleichzeitig beginnt die Trump-Regierung Claude zu ersetzen und sucht nach alternativen KI-Modellen für die Militäroperationen im Iran. Laut einem Pentagon-Mitarbeiter dauert die Ablösung von Claude mehrere Wochen. Auf X verkündete OpenAI-Chef Sam Altman, dass ChatGPT nun Nachfolger werden soll.
Zwar verliert Anthropic dadurch massenhaft Aufträge. Doch gleichzeitig steigt der Wert des Unternehmens aktuell enorm: Zum ersten Mal liegt Claude in den App-Charts vor ChatGPT. Verantwortlich dafür ist die Nutzer-Kampagne #QuitGPT, bei der Millionen User ChatGPT öffentlichkeitswirksam den Rücken kehren.

