Direkt zum Inhalt wechseln
logo Mobiler Lifestyle, Streaming und Smart Finance
Künstliche Superintelligenz

Was ist eigentlich Artificial General Intelligence (AGI)?

AGI Artificial General Intelligence Symbolbild
Die Möglichkeiten, die einem Künstliche Intelligenz gibt, sind noch deutlich begrenzt. Könnte sich das ändern? Foto: Getty Images
Lars Lubienetzki
Freier Redakteur

7. Februar 2024, 9:07 Uhr | Lesezeit: 6 Minuten

Experten forschen schon lange daran, Künstliche Intelligenz schlauer und „menschlicher“ zu machen. Aber ist es überhaupt möglich, eine solche Artificial General Intelligence (kurz: AGI) zu erschaffen?

Artikel teilen

Viele Menschen halten bereits ChatGPT für eine ernsthafte Bedrohung. Dabei gilt das KI-Sprachmodell nur als sogenannte schwache KI. Seitdem der Begriff „Künstliche Intelligenz“ Mitte der 1950er-Jahre erstmalig aufgetaucht ist, träumt der forschende Teil der Menschheit davon, ein System zu erschaffen, welches ähnlich wie ein Mensch oder sogar besser handelt – eine sogenannte starke KI. Dieser Begriff – „starke KI“ – sorgt in Expertenkreisen seit Jahren für Diskussionen. Einige Fachleute halten solch ein System für reine Science-Fiction. Andere wiederum glauben, eine solche künstliche Superintelligenz – eine Artificial General Intelligence (kurz: AGI) – stehe kurz vor dem Durchbruch.

Abonnieren Sie unseren WhatsApp-Channel und bleiben Sie immer auf dem neuesten Stand im Bereich Technik und Mobile Lifestyle.

Schwache und starke KI

Der KI-Hype um ChatGPT und ähnliche Programme trägt leider nicht dazu bei, Klarheit in die Diskussion zu bringen. Auch wenn die Leistungen des KI-Sprachmodells Laien beeindruckt, auf den Menschen übertragen verfügt ChatGPT lediglich über eine Art Inselbegabung. Das gilt im Übrigen auch für Sprachassistenten wie Siri und Alexa oder auch einen Schachcomputer. All diese Systeme können eine Sache herausragend gut, sogar besser als der Mensch. In allen anderen Bereichen sind diese KI-Modelle hingegen unmenschlich.

Damit ist nicht das Verhalten, sondern vielmehr das Lernverhalten gemeint. Während ein Mensch aus früheren Handlungen lernt und auf neue Dinge anwendet, müssen Maschinen immer wieder Dinge neu trainieren. Sie können sich erlernte Handlungen nicht merken und auf andere F#lle anwenden. Das Lernen einer Maschine beginnt immer wieder beim Nullpunkt.

Eine sogenannte Artificial General Intelligence müsste das nicht. Ein solches KI-System würde Erlerntes anwenden, die eigene Leistung beurteilen und einschätzen, daraus wiederum lernen und bei weiteren, unüberwindbaren Problemen um Hilfe bitten – eben genau das, was ein Mensch in ähnlicher Situation tun würde.

Doch das ist nur eine von vielen AGI-Definitionen. Das KI-Forschungsteam Deepmind von Google hat es einmal so formuliert: „Bitte 100 KI-Experten darum, zu definieren, was ‚AGI‘ meint, und du erhältst vermutlich 100 ähnliche, dennoch verschiedene Definitionen.“

Auch interessant: 12 wichtige Begriffe im Bereich KI und was sie bedeuten

Viel Humbug um AGI

Der Begriff Artificial General Intelligence taucht Ende der 1990er-Jahre in der Diskussion auf. Der Physiker Mark Gubrud nimmt ihn das erste Mal in den Mund. Allgemeine Bekanntheit erlangt der Begriff „AGI“ dann in den 2000er-Jahren durch den späteren Deepmind-Gründer Shane Legg und den KI-Experten Ben Goertzel.

Vor allem Ben Goertzel gilt als schillernde und gleichzeitig umstrittene Figur in der gesamten AGI-Diskussion. Er sprach bereits 1998 von Systemen, die kurz davor seien, menschliches Denken zu adaptieren oder zu übertreffen. Mit seiner damaligen Firma Webmind versuchte er ein digitales Abbild vom Gehirn eines Babys zu erstellen. Dieses sollte anschließend ins Internet hochgeladen werden. Dort sollte sich das digitale Gehirn dann entwickeln und am Ende menschliche Fähigkeiten übertreffen. Im Jahr 2001 trat dann allerdings der digitale Hirntod ein. Die kurz bevorstehende AGI-Revolution verbrannte leider mehrere Millionen US-Dollar. Gleichzeitig meldete Webmind Konkurs an.

Doch Ben Goertzel gab nicht so schnell auf. In den Jahren 2014 bis 2018 arbeitete er als hauptverantwortlicher Wissenschaftler bei Hanson Robotics in Hongkong. Das Unternehmen verblüffte im Jahr 2016 die Welt mit einem sprechenden, menschenähnlichen Roboter namens Sophia.

Doch auch hierbei handelte es sich nicht um den kurz bevorstehenden AGI-Durchbruch, eher um eine Menge Entertainment. Selbst Ben Goertzel gab später zu, Sophia sei ein „Theater-Roboter“ gewesen. Mit KI habe das Projekt nur wenig zu tun gehabt.

AGI: Ein mathematisches Problem

Wo stehen wir also in Sachen Artificial General Intelligence? So genau weiß das niemand. In der Theorie gibt es zumindest Versuche, AGI per Formel zu definieren. Sämtliche Gedanken laufen auf zwei Wege zu, die am Ende in eine ähnliche Richtung führen.

Dabei geht es um Algorithmen und künstliche neuronale Netze. Die eine Theorie besagt: Finde die richtigen Algorithmen. Diese passen dann in jede beliebige Architektur künstlicher neuronaler Netze. Die andere Theorie lautet: Baue eine passende Architektur künstlicher neuronaler Netze. In diese füge nachträglich Algorithmen ein.

Klingt zunächst nach einem sehr abstrakten mathematischen Problem, lässt sich aktuell allerdings nicht lösen, weil eine solche Formel aus unendlich vielen Unbekannten besteht. Der Mensch und vor allem das menschliche Gehirn ist eben ein komplexes System, von dem wir noch viel zu wenig verstehen. Diese Fragen beschäftigen die KI-Forschung am meisten:

  • Welche menschlichen Fähigkeiten gelten als zuverlässiger Maßstab für eine lernende Maschine?
  • Wie werden diese menschlichen Fähigkeiten bewertet?

Wie lässt sich AGI bewerten?

Aktuell versuchen Fachleute die „Leistung“ von ChatGPT zu bewerten, eine schwache KI. Gesicherte Antworten gibt es noch keine. Bei einer starken KI dürfte der Bewertungsprozess daher deutlich komplizierter ausfallen.

Um das Problem im Falle von ChatGPT grob zu verdeutlichen: Derzeit erkennt das KI-Sprachmodell Wörter und kann diese in einen sinnvollen Zusammenhang setzen. ChatGPT verfügt allerdings nur über ein mathematisches Verständnis, kein menschliches. Bei einem Motorrad auf einem Foto oder in einem Video ist ChatGPT blind.

AGI-Fachleute versuchen nun bestimmte Fähigkeiten von KI-Modellen einzuordnen. Es fehlt allerdings der Maßstab. Denn: Wäre ChatGPT eine starke KI nach AGI-Maßstäben, wenn das Modell ein Motorrad auf einem Foto oder in einem Video erkennen könnte? Die Antwort lautet aktuell: Nein.

Derzeit ist maximal vorstellbar: Ein KI-Modell erkennt ein Wort in Text und Bild, beispielsweise ein Motorrad. Bei jedem weiteren Wort und Gegenstand beginnt das „Training“ wieder von vorn.

Mehr zum Thema

Fazit: AGI bleibt (noch) Fantasie

Ob Menschen irgendwann ein System mit Artificial General Intelligence erschaffen werden, ist daher in erster Linie auch ein zeitliches Problem. Heutige KI-Modelle lernen sehr langsam. Möglicherweise steigt das Lerntempo in den nächsten Jahren aufgrund technischer Entwicklungen. Das wird sich zeigen.

Ansonsten existieren AGI-Systeme nur in den Köpfen von Science-Fiction-Autoren. Der HAL 9000 in dem Roman „2001: Odyssee im Weltraum (Roman)“ von Arthur C. Clarke fällt sicherlich in die Kategorie, die sich als künstliche Superintelligenz bezeichnen lässt – als Artificial General Intelligence.

Themen Künstliche Intelligenz
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.