Was Claude Mythos kann
Anthropic ist neben OpenAI, dem Unternehmen hinter ChatGPT, und Google einer der führenden Entwickler von KI-Sprachmodellen. Vielen dürfte Anthropic zuletzt auch durch den Rechtsstreit mit dem US-Verteidigungsministerium ein Begriff sein: Das Pentagon hatte das Unternehmen auf eine schwarze Liste gesetzt, nachdem Anthropic sich geweigert hatte, dem Militär uneingeschränkten Zugang zu seinen KI-Modellen zu gewähren – unter anderem wollte das Unternehmen den Einsatz für autonome Waffen und Massenüberwachung ausschließen.
Claude Mythos Preview ist nun das leistungsfähigste Modell, das Anthropic je entwickelt hat – und gleichzeitig das erste, das das Unternehmen nicht öffentlich zugänglich macht. Das allein ist bemerkenswert: Noch nie hat Anthropic eine technische Dokumentation für ein Modell veröffentlicht, das niemand außerhalb eines ausgewählten Kreises nutzen kann.
Gefahr für die Sicherheit?
Der Grund dafür sind die Fähigkeiten des Modells im Bereich Cybersicherheit. Mythos ist kein spezialisiertes Hacker-Werkzeug, sondern ein allgemeines Sprachmodell – eines, das Texte schreiben, Fragen beantworten und Code analysieren kann. Doch als Nebenprodukt seiner enormen Programmier- und Analysefähigkeiten hat es sich als extrem kompetent darin herausgestellt, Sicherheitslücken in Software zu finden.
Anthropic hat mit Mythos nach eigenen Angaben Tausende bisher unbekannte Schwachstellen in weit verbreiteter Software gefunden. Darunter ein 27 Jahre alter Fehler im Betriebssystem OpenBSD, das als eines der sichersten der Welt gilt. Ein Bug in der Video-Software FFmpeg, den automatisierte Test-Tools fünf Millionen Mal übersehen hatten. Und im Linux-Kernel, der Software hinter dem Großteil der weltweiten Server, fand Mythos mehrere Lücken und verkettete sie eigenständig zu einem vollständigen Angriffspfad.
Nicht jeder ist allerdings überzeugt von Anthropics Ankündigung. Kritiker wie der französische KI-Experte Yann LeCun sehen darin vor allem eine Marketing-Maßnahme. Ein Unternehmen, das ein Produkt als zu gefährlich für die Öffentlichkeit einstuft, erzeugt damit enorme Aufmerksamkeit – und positioniert sich gleichzeitig als verantwortungsvoller Akteur in einer Branche, die regelmäßig in der Kritik steht. Schon 2019 hatte OpenAI sein Sprachmodell GPT-2, ein Modell, das deutlich schlechter war als ChatGPT, zunächst nicht veröffentlicht – mit der Begründung, es sei zu gefährlich.
Was ist Project Glasswing?
Anthropic hat nun ein Konsortium namens „Project Glasswing“ gegründet. Die Idee: Große Technologieunternehmen wie Apple, Amazon, Microsoft, Google und Cisco erhalten Zugang zu Mythos, um damit Schwachstellen in ihren eigenen Systemen aufzuspüren und zu schließen. Auch die Linux Foundation, die IT-Sicherheitsfirmen CrowdStrike und Palo Alto Networks gehören zu den Partnern. Anthropic investiert nach eigenen Angaben bis zu 100 Millionen Dollar in das Projekt.
Alex Stamos, ehemaliger Sicherheitschef bei Facebook, warnte gegenüber dem US-Medium Platformer, dass offene KI-Modelle in etwa sechs Monaten ähnliche Fähigkeiten beim Finden von Schwachstellen erreichen könnten. Dann hätten auch Kriminelle Zugang zu solcher Technologie – zu geringen Kosten und ohne Spuren zu hinterlassen.
Für Europa und Deutschland wäre das auch eine Frage der nationalen und europäischen Sicherheit. Denn unter den Gründungspartnern von Project Glasswing findet sich kein einziges europäisches Unternehmen. Das wirft die Frage auf, ob Europa beim Zugang zu den leistungsfähigsten Sicherheitswerkzeugen außen vor bleiben könnte.

