Das „Alignment-Problem“
Im Kern der KI-Sicherheits-Aktivisten steht das „Alignment-Problem“. So bezeichnet man das technische Problem, wie man eine super-entwickelte KI dazu bringt, in ihrem Handeln keinen Menschen zu schaden. Ein berühmtes Gedankenspiel ist der „Paperclip Maximizer“: eine hypothetische Super-KI mit dem Auftrag, möglichst viele Büroklammern herzustellen, könnte zum Erfüllen dieser Aufgabe die gesamte Welt in Büroklammern verwandeln – auch uns Menschen.
Das „Alignment-Problem“ ist nach wie vor ungelöst – denn es behandelt eine Technologie, die zumindest noch nicht existiert: eine superintelligente Künstliche Intelligenz, die sich selbst exponentiell verbessern kann und um ein Vielfaches intelligenter und mächtiger ist als jeder Mensch.
KI-Experten sind sich uneins, wann es eine solche KI geben könnte, und ob es überhaupt möglich ist, sie zu bauen. Ebenso wird darüber gestritten, was für ein Risiko wirklich von ihr ausgehen würde. Doch Sicherheits-Aktivisten wie Evander Hammer meinen: Vorsicht ist besser als Nachsicht.
Zwischen Super-KI und Biowaffen
Im Silicon Valley sind Super-KI und „Alignment-Problem“ schon seit Jahren beliebte Tischgespräche. KI-Expertinnen und Entwickler tauschen sich dort über ihre „p(doom)“ aus – eine Zahl, die angibt, für wie wahrscheinlich man eine KI-Katastrophie hält – und spekulieren darüber, ob das exponentielle Wachstum der großen KI-Modelle wirklich anhalten kann.
„Ich mache mir ernsthaft Sorgen“, meint etwa Lisa Thiergart. Die 25-jährige Deutsche arbeitet als KI-Sicherheitsforscherin beim Machine Intelligence Research Institute (MIRI) in Kalifornien. Das MIRI gilt als eine der Kern-Institutionen der KI-Warner. „Und ich habe auch ernsthaft Angst, dass das entgleisen könnte in der Zukunft, wenn es so weitergeht wie bisher.“
Lisa Thiergart meint: Es ist nicht nur das Szenario einer autonomen Super-KI, wegen der wir uns Gedanken machen sollten. Sondern auch: „Dass die KI versucht, neue Biowaffen zu erfinden.“ Kriminelle könnten fortgeschrittene KIs in Zukunft um den Bauplan für eine Waffe bitten. Und dann: „Überraschung. Die Waffe ist komplett neu. Keiner wird wissen, wie man dagegen ankommen kann.“
Wie groß ist die Gefahr wirklich?
Immer wieder wird auch Kritik am Camp der „AI Doomer“ laut. Ihr Fokus auf ein hypothetisches Risiko in der Zukunft würde den Blick versperren auf reale Risiken der Gegenwart, so der Vorwurf.
Letztlich halten nur sehr wenige KI-Experten das Risiko einer KI-Apokalypse für tatsächlich wahrscheinlich. Doch in Zeiten, in denen KI-Technologie ständig besser wird und neue Leistungen liefert, ist die präzise Vorhersage der Zukunft immer schwerer geworden.