AGI: Wie schwer es ist, künstliche allgemeine Intelligenz zu definieren

AGI ist eines der populärsten und gleichzeitig umstrittensten Technologie-Konzepte. Denn bisher war nicht klar, was es außer "wie KI, aber besser" bedeutet.​

In Pocket speichern vorlesen Druckansicht 36 Kommentare lesen
Distance,Education,Online,Learning,Concept.,Robot,Teacher,,Abstract,Classroom,Interior

(Bild: Besjunior/Shutterstock.com)

Lesezeit: 7 Min.
Von
  • Will Douglas Heaven

Künstliche allgemeine Intelligenz, kurz AGI (artificial general intelligence) gehört zu den heißesten Technologie-Themen. Es ist auch eines der umstrittensten: Denn nur wenige sind sich darüber einig, was der Begriff überhaupt bedeutet. Jetzt hat ein Team von Google DeepMind-Forschern einen Fachartikel zu AGI veröffentlicht, der neben einer neuen Definition auch gleich ein ganzes Klassifikationsschema enthält.

Im Großen und Ganzen bedeutet AGI in der Regel künstliche Intelligenz (KI), die dem Menschen bei einer Reihe von Aufgaben ebenbürtig ist oder ihn dabei übertrifft. Aber Details dazu, was genau als menschenähnlich gilt, oder um welche Aufgaben und wie viele es sich handelt, wird gerne mit "AGI ist KI, aber besser" abgetan.

Für die neue Definition extrahierte das Google DeepMind-Team die wesentlichen gemeinsamen Merkmale bisheriger prominenter AGI-Definitionen. Darüber hinaus skizzierte es fünf sich aufbauende Stufen von AGI:

  1. Entstehend (etwa hochmoderne Chatbots wie ChatGPT und Bard)
  2. Kompetent
  3. Fachkundig
  4. Virtuos
  5. Übermenschlich (die eine breite Palette von Aufgaben besser als alle Menschen erledigen, einschließlich Aufgaben, die Menschen überhaupt nicht erledigen können, wie das Dekodieren der Gedanken anderer Menschen, die Vorhersage zukünftiger Ereignisse und das Sprechen mit Tieren).

Die Forschenden stellen fest, dass keine höhere Stufe als eine entstehende AGI erreicht wurde.

"Das schafft die dringend nötige Klarheit in diesem Thema", sagt Julian Togelius, ein KI-Forscher an der New York University, der nicht an der Arbeit beteiligt war. "Zu viele Leute werfen mit dem Begriff AGI um sich, ohne viel darüber nachgedacht zu haben, was sie damit meinen.“

"Ich erlebe so viele Diskussionen, in denen der Begriff anscheinend für unterschiedliche Dinge verwendet wird, was zu allerlei Verwirrung führt", sagt Shane Legg, Mitbegründer von DeepMind und leitender AGI-Wissenschaftler des Unternehmens, der den Begriff vor etwa 20 Jahren erfunden hat. "Jetzt, wo AGI zu einem so wichtigen Thema wird – sogar der britische Premierminister spricht darüber – müssen wir genauer definieren, was wir meinen."

Das war nicht immer so. AGI wurde in ernsthaften Gesprächen bestenfalls als vage und schlimmstenfalls als magisches Denken verspottet. Aber durch den Hype um generative Modelle ist AGI jetzt in aller Munde.

Legg hatte den Begriff ursprünglich seinem ehemaligen Forscherkollegen Ben Goertzel für den Titel von Goertzels Buch aus dem Jahr 2007 über künftige Entwicklungen in der KI vorgeschlagen. "Ich hatte keine besonders klare Definition. Ich hatte nicht das Gefühl, dass sie notwendig war“, sagt Legg. "Ich habe es eher als ein Forschungsgebiet betrachtet und nicht als ein Artefakt."

Sein Ziel war es damals, bestehende KI, die eine Aufgabe sehr gut erledigen konnten – wie IBMs Schachprogramm Deep Blue – von einer hypothetischen KI zu unterscheiden, von der er und viele andere glaubten, dass sie eines Tages viele Aufgaben sehr gut erledigen würde. Menschliche Intelligenz ist nicht wie Deep Blue, sagt Legg: "Sie ist ein sehr weites Feld."

Doch im Laufe der Jahre begannen die Menschen, KI als eine potenzielle Eigenschaft zu betrachten, die tatsächliche Computerprogramme haben könnten. Heute ist es normal, dass führende KI-Firmen wie Google DeepMind und OpenAI in der Öffentlichkeit kühne Erklärungen über ihre Mission abgeben, solche Programme zu entwickeln. "Wenn man anfängt, solche Gespräche zu führen, muss man sehr viel genauer sagen, was man meint", sagt Legg.

DeepMind-Forscher sagen zum Beispiel, dass eine AGI sowohl universell einsetzbar als auch hochleistungsfähig sein muss, nicht nur das eine oder das andere. "Eine solche Trennung von Breite und Tiefe ist sehr nützlich", sagt NYU-Forscher Togelius. "Es zeigt, warum die sehr leistungsfähigen KI-Systeme, die wir in der Vergangenheit gesehen haben, nicht als AGI gelten."

Sie stellen außerdem fest, dass eine AGI nicht nur in der Lage sein muss, eine Reihe von Aufgaben zu erledigen, sondern auch lernen können muss, wie diese Aufgaben zu erledigen sind, ihre Leistung zu bewerten und bei Bedarf um Hilfe zu bitten. Es komme mehr darauf an, was eine AGI tun kann, als darauf, wie sie es tut.

Es ist nicht so, dass die Art und Weise, wie eine AGI arbeitet, unwichtig wäre, sagt Meredith Ringel Morris, DeepMinds leitende Wissenschaftlerin für die Interaktion zwischen Mensch und KI. Das Problem ist, dass wir noch nicht genug darüber wissen, wie hochmoderne Modelle, wie etwa große Sprachmodelle, unter der Haube arbeiten, um dies zu einem Schwerpunkt der Definition zu machen. "Wenn wir mehr Einblicke in die zugrundeliegenden Prozesse gewinnen, könnte es wichtig sein, unsere Definition von AGI zu überdenken", sagt Morris. "Wir müssen uns auf das konzentrieren, was wir heute auf wissenschaftlich anerkannte Weise messen können."

Wie man die Leistung heutiger Modelle messen sollte, ist allerdings umstritten. Forscher diskutieren darüber, was es wirklich bedeutet, wenn ein großes Sprachmodell Dutzende von Highschool-Tests und mehr besteht. Ist es ein Zeichen von Intelligenz? Oder eine Art Auswendiglernen?

Die Bewertung der Leistung künftiger Modelle, die noch leistungsfähiger sind, wird noch schwieriger sein. Die Forscher schlagen vor, dass die Fähigkeiten von AGI, sollten sie jemals entwickelt werden, laufend bewertet werden sollten und nicht nur durch eine Handvoll einmaliger Tests.

Das Team weist auch darauf hin, dass AGI nicht gleichbedeutend mit Autonomie ist. "Oft wird implizit davon ausgegangen, dass die Menschen völlig autonom arbeitende Systeme wollen", sagt Morris. Das ist aber nicht immer der Fall. Theoretisch ist es möglich, superintelligente Maschinen zu bauen, die vollständig von Menschen gesteuert werden.

Eine Frage, die die Forscher in ihrer AGI-Diskussion nicht ansprechen, ist die, warum wir sie bauen sollten. Einige Informatiker und Informatikerinnen wie Timnit Gebru, Gründerin des Distributed AI Research Institute, haben argumentiert, dass das ganze Unterfangen seltsam ist. In einem Vortrag im April über das ihrer Meinung nach falsche (und sogar gefährliche) Versprechen einer Utopie durch AGI merkte Gebru an, dass die hypothetische Technologie "wie ein 'unscoped' System klingt, dessen offensichtliches Ziel es ist, in jeder Umgebung alles für jeden zu tun".

Die meisten technischen Projekte haben klar umrissene Ziele. Die Mission, eine AGI zu entwickeln, hat das nicht. Selbst die Definitionen von Google DeepMind lassen eine AGI zu, die unendlich breit und unendlich intelligent ist. "Versuchen Sie nicht, einen Gott zu bauen", sagte Gebru.

In dem Wettlauf um immer größere und bessere Systeme werden nur wenige diesen Rat beherzigen. So oder so ist etwas Klarheit über eine lange Zeit verwirrendes Konzept willkommen. "Alberne Gespräche zu führen, ist irgendwie uninteressant", sagt Legg. "Es gibt eine Menge guter Dinge zu entdecken, wenn wir diese Definitionsprobleme überwinden können."

(vsz)