Rund 500.000 Bücher und andere Texte hatte Anthropic über zwei illegale Online-Datenbanken heruntergeladen, um damit sein KI-Modell „Claude“ zu trainieren. Jetzt schlägt das Unternehmen einen Vergleich vor, der nach Angaben der Klägeranwälte jeden bisherigen Urheberrechts-Vergleich in den Schatten stellt. Pro betroffenem Werk sollen etwa 3.000 Dollar gezahlt werden – das Vierfache des gesetzlichen Mindest-Schadenersatzes nach US-Urheberrecht.
Die Authors Guild, ein einflussreicher Schriftstellerverband, nahm den Vorschlag bereits an. Endgültig wird der Vergleich aber erst, wenn der zuständige Richter in San Francisco zustimmt. Anthropic will damit einen Prozess verhindern, in dem noch deutlich höhere Zahlungen drohen könnten.
Richter sieht KI-Training als „Fair Use“
Das Pikante an dem Fall: Der zuständige Richter hatte das KI-Training an sich für rechtlich unbedenklich erklärt. Nach dem amerikanischen „Fair Use“-Prinzip dürfen urheberrechtlich geschützte Werke verwendet werden, wenn dabei etwas Neues entsteht. Da KI-Chatbots nicht einfach die Trainingsdaten wiedergeben, sondern neue Antworten generieren, falle das unter diese Regelung.
Das eigentliche Problem sah der Richter woanders: Anthropic hatte die Bücher nicht legal erworben, sondern bewusst aus illegalen Quellen heruntergeladen. Das Unternehmen wusste dabei, dass die genutzten Datenbanken durch Raubkopien erstellt worden waren. Für diesen Verstoß hätten in einem Prozess Strafzahlungen von bis zu 150.000 Dollar pro Buch gedroht.
Autorenverband: Signal an die KI-Branche
Authors-Guild-Chefin Mary Rasenberger sieht in dem Vergleich eine wichtige Botschaft: „Diese Einigung sendet eine starke Botschaft an die KI-Industrie, dass es schwerwiegende Konsequenzen hat, wenn sie die Werke von Autoren raubkopiert.“ Gleichzeitig dürfte das Urteil der KI-Branche aber auch Mut machen – solange die Trainingsdaten legal beschafft werden, steht dem KI-Training wenig im Weg.
Anthropic, das erst diese Woche 13 Milliarden Dollar in einer Finanzierungsrunde eingesammelt und dabei eine Bewertung von 183 Milliarden Dollar erreicht hatte, kann sich die Zahlung problemlos leisten. Für andere KI-Firmen könnte der Fall aber zum Präzedenzfall werden.
Andere Lage für europäische Autoren
In Europa gelten andere Regeln als in den USA. Das „Fair Use“-Prinzip gibt es hier nicht, stattdessen regelt das sogenannte „Text und Data Mining“ die Nutzung öffentlicher Daten für KI-Training. Verlage können die Nutzung ihrer Werke explizit ausschließen – ein Opt-out-Verfahren, das immer häufiger genutzt wird. Ob sich die KI-Firmen daran halten und wie konsequent solche Verstöße verfolgt werden, bleibt abzuwarten. Der Anthropic-Fall zeigt jedenfalls: Zumindest in den USA ist oft weniger das Training selbst juristisch relevant als die Art der Datenbeschaffung.