Das Jahr 2025 könnte ein Wendepunkt in der Geschichte der künstlichen Intelligenz werden – zumindest wenn es nach OpenAI-Chef Sam Altman geht. In einer öffentlichen Umfrage auf der Plattform X fragte er kürzlich seine Follower, was sie sich von OpenAI im kommenden Jahr wünschen. Die Antworten waren eindeutig: Ganz oben auf der Wunschliste stand AGI – Artificial General Intelligence oder künstliche allgemeine Intelligenz.
Als Chef des Start-ups hinter ChatGPT ist Sam Altman meist einer der ersten, die gerne über die Fähigkeiten einer möglichen zukünftigen Superintelligenz sprechen. Genaue Zeitfenster möchte er, wie auch der Rest der Tech-Branche, zwar nicht nennen. Doch zahlreiche Tech-Chefs sprechen zumindest öffentlich immer wieder darüber, die große „AGI“-Grenze schon in einigen Jahren – möglicherweise in ersten Schritten sogar im Jahr 2025 – überwinden zu wollen.
Aber was soll „AGI“ eigentlich sein?
Klassische Definitionen meinen mit „AGI“ ein KI-System, das dem menschlichen Denken ebenbürtig sind oder es gar übertrifft. Der Philosoph Nick Bostrom definiert sie etwa als „Intellekt, der deutlich intelligenter ist als die besten menschlichen Gehirne in praktisch jedem Bereich, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialer Fähigkeiten.“ OpenAI fasst den Begriff etwas weiter und bezeichnet mit AGI in öffentlichen Dokumenten eine KI mit der Fähigkeit, die meisten wirtschaftlich wertvollen Aufgaben besser zu erledigen als Menschen.
Die meisten KI-Forscher rechnen damit, dass ein KI-System dieser Art früher oder später erreicht werden könnte. Doch wann dieser Zeitpunkt erreicht ist, darüber gehen die Meinungen weit auseinander. Nicht zuletzt, da sogar die Definition der „Allgemeinen Künstlichen Intelligenz“ nicht ganz geklärt ist.
Die Debatte zeigt: AGI ist vor allem ein dehnbarer Begriff. „AGI ist das, was Sie möchten, dass es ist“, schreibt der KI-Forscher Nathan Lambert in einer Analyse (externer Link). Er vergleicht die AGI-Diskussion mit einem Religionsstreit – weniger wegen des Glaubens an künstliche Intelligenz, sondern wegen des blinden Vertrauens in bestimmte Definitionen.