KI und die Zukunft der Menschheit: Kommt die technologische Singularität?

KI-Methoden entwickeln sich rasant. Doch wo führt uns diese Entwicklung hin? Eine Analyse von Tobias Lauterbach.

In Pocket speichern vorlesen Druckansicht 50 Kommentare lesen
KI

(Bild: Erstellt mit Midjourney durch Tobias Lauterbach)

Lesezeit: 8 Min.
Von
  • Tobias Lauterbach
Inhaltsverzeichnis

Aktuell vergeht kaum ein Tag, an dem es nicht eine Schlagzeile zu einem KI-relevanten Thema gibt. Ein neues Midjourney-Update hier, eine neue Video-KI da, ein neues Open-Source-Sprachmodell dort. Da stellt sich so manch einem Leser die Frage: Wo führt uns diese Entwicklung hin? Kurzfristig lässt sich diese Frage noch beantworten, ohne sich allzu weit aus dem Fenster zu lehnen: Es wird mehr KIs zur unterstützenden Arbeit in immer mehr Bereichen geben. Denn solange Künstliche Intelligenz (KI) nicht zuverlässig komplett autonom brauchbare Ergebnisse liefern kann, wird der Mensch KIs ausschließlich als Assistenten nutzen.

Tobias Lauterbach ist Entwickler bei der Satireseite "Der Postillon" und arbeitet selbst mit KI

Doch schon ein wenig weiter in die Zukunft gedacht werden KIs mittelfristig womöglich so gut werden, dass sie auch vollständige Aufgaben selbstständig übernehmen können. Einen eigenen kleinen Blog mit Inhalten bespielen, ein Werbevideo für ein Unternehmen animieren und schneiden, die Anwendungsfälle sind unbegrenzt.

Langfristig könnten die von der KI bewältigbaren Aufgaben immer komplexer werden, bis KIs auch überwiegend in der KI-Entwicklung einsetzbar sind und dort selbstständig agieren. Zu diesem Zeitpunkt wären sie nicht mehr auf einzelne Aufgabenbereiche spezialisiert, sondern hätten das gleiche kognitive Spektrum wie der Mensch und würden so als AGI (Artificial General Intelligence) bezeichnet werden. Dieser aktuell noch theoretische Punkt wird in der Zukunftsforschung bereits seit den 60er-Jahren unter dem Begriff "Technologische Singularität" thematisiert. Er beschreibt den Zeitpunkt, an dem unser technischer Fortschritt und damit auch ein gravierender Teil unserer Zukunft, nicht mehr in menschlichen, sondern in den virtuellen Händen der zukünftigen Technik liegt.

Der britische Mathematiker Irving John Good beschrieb bereits 1965, dass die erste superintelligente Maschine, die die intellektuellen Fähigkeiten eines jeden Menschen übertrifft, die letzte menschliche Erfindung und Errungenschaft sein wird. Diese wäre dann nämlich per definitionem selbst in der Lage, bessere intelligente Maschinen zu bauen als der Mensch. Ab diesem Zeitpunkt würden alle Fortschrittsmodelle, wie beispielsweise das Mooresche Gesetz, obsolet, und wir können keine weiteren Schätzungen über die Zukunft mehr abgeben.

Aber neben der Fortschrittsgeschwindigkeit sind auch die Errungenschaften selbst absolut unvorstellbar. Es könnte Erfindungen geben, die kein menschliches Gehirn mehr auch nur versteht. Dies würde neben den großen Chancen, beispielsweise im Gesundheitswesen oder in der Forschung, aber natürlich auch enorme Risiken mit sich bringen – die Ära der Menschheit würde enden und wir hätten nicht mehr die Kontrolle.

Auch wenn wir aufgrund des aktuellen Hypes sofort an KIs denken, so müsste die technologische Singularität nicht zwangsläufig durch eine künstliche Intelligenz erreicht werden, auch andere Technologien wie eine Intelligenzverstärkung des menschlichen Gehirns könnten dazu beitragen.

Doch ist diese Singularität durch KIs wirklich so nah, wie es aktuell den Anschein macht? Über einen möglichen Zeitpunkt, wann die Menschheit diesen Meilenstein erreicht, waren die Wissenschaftler schon immer geteilter Meinung. Während nach ein paar der frühen Schätzungen nach Entstehung des Begriffs die Singularität schon längst da sein müsste (I. J. Good, Eliezier Yudkowsky), belief sich damals ein großer Teil der Schätzungen auf unsere heutige nahe Zukunft: Kurzweil prognostizierte sie bis 2045, Vernor Vinge erwartete sie gar vor 2030.

Dem gegenüber gab es auch Stimmen wie Paul Allen oder Jeff Hawkins, die der Meinung waren, die technologische Singularität würde vermutlich nie erreicht werden, oder wenn, erst in sehr ferner Zukunft.

Aufschluss über die Entwicklungen der Einschätzungen aus den letzten Jahren geben auch verschiedene Studien aus den Jahren 2012, 2017, 2019 und 2022, die direkt mehrere AI-Experten befragt haben. Die Studien stellen nicht exakt die gleichen Fragen und führen unterschiedliche Antwortkategorien auf, daher kann man sie nicht eins zu eins vergleichen. Es lässt sich aber feststellen, dass in allen Studien sich die Befragten nicht einig sind und das Thema nach wie vor kontrovers ist. Insgesamt erwartet jedoch ein großer Teil der Wissenschaftler, dass die Singularität vor 2060 eintritt. Dabei lässt sich aus den Daten aber keine massive Veränderung ableiten, bestenfalls lässt sich eine leichte Tendenz dazu feststellen, dass die Experten im Laufe der Zeit von einem früheren Eintritt ausgehen.

Doch warum ist das Thema so umstritten, warum zweifeln manche Experten an einer baldigen Singularität? Besonders in den USA gibt es eine recht aufgeheizte Diskussion um den ideologischen Hintergrund der "AI Doomer" - vor allem den effektiven Altruismus. Kritiker werfen der Singularity-Fraktion vor, die bereits jetzt existierenden Probleme durch KI zugunsten einer weit entfernten, diffusen Gefahr zu verharmlosen, um sich wichtig zu machen - und natürlich um die eigenen Geschäfte zu befördern.

Dann gibt es erhebliche Zweifel an der Grundthese der Singularitäts-Vorhersage, dass der technische Fortschritt sich immer weiter beschleunigen würde - eine These, die zum Beispiel sehr gerne von Kurzweil vertreten wird. Denn das widerspricht historischen Daten: 1939 beispielsweise wurde der Fernseher erstmals verkauft, bereits neun Jahre später war er in jedem zweiten US-Haushalt zu finden. Das Radio verbreitete sich gar in acht Jahren (1922 bis 1930). Das Mobiltelefon hingegen brauchte 15 Jahre (1980 bis 1995), der Computer gar 17 Jahre (1976 bis 1993).

Manche Befürworter der Singularitäts-These halten diese zwar für extrem wahrscheinlich, glauben aber, dass es wie bei bisherigen von Menschen entwickelten Technologien so etwas wie eine Komplexitätsbremse geben könnte. Ab einem gewissen Punkt würde sich der Fortschritt also irgendwann verlangsamen, weil es immer komplexer und somit schwieriger wird, weitere Verbesserungen zu erreichen. Weiterhin stoßen wir bei gewissen technischen Grundlagen wie klassischen Prozessoren auch irgendwann an physikalische Grenzen, da man gewisse Bauteile nicht beliebig klein herstellen kann. Manche sehen in Quantencomputern eine Lösung für diese Barriere, aber auch diese Technologie ist noch nicht vollständig erforscht und befindet sich noch in der Entwicklung.

Zudem ist es leicht, die Kapazitäten von generativen KIs wie ChatGPT zu überschätzen. Durch die korrekte Anwendung der menschlichen Sprache schreiben wir ihnen schnell eine menschenähnliche Intelligenz zu. Wir haben das Gefühl, mit jemandem auf Augenhöhe zu kommunizieren, da wir bislang sonst keine sprachliche Kommunikation auf dem Niveau mit nicht menschlichen Gesprächspartnern kennen. Allerdings unterscheidet sich die künstliche Intelligenz doch in vielen Faktoren von der menschlichen, vor allem dadurch, dass sie über kein semantisches Wissen verfügt - auch wenn manche Forschenden großen Sprachmodellen durchaus zubilligen, dass sie ein Weltmodell bilden. Die Frage ist jedoch wissenschaftlich umstritten. Viele Forschende gehen davon aus, dass ChatGPT beispielsweise nicht wirklich "weiß", was heise.de ist, sondern eine entsprechende Erklärung aus wahrscheinlichsten Wortkombinationen generiert, die sich durch das Training mit entsprechenden Daten ergeben haben.

Die Ergebnisse zeigen also wieder: Es gibt keinen wissenschaftlichen Konsens darüber, wann und ob wir die technologische Singularität erreichen. Es gibt sowohl plausible Argumente dafür, warum dies möglich sein könnte, gleichzeitig aber auch – trotz der aktuellen Entwicklungen – noch keinen Beweis, dass dies je eintreten wird. Darüber hinaus gibt es einige berechtigte Zweifel. Ein Großteil der KI-Experten ist jedoch der Meinung, dass wir sie in den nächsten Jahrzehnten erleben werden. Es macht also Sinn, sich mit den Risiken und dem Nutzen weiterzubeschäftigen und über Wege zu sprechen, wie eine bestmögliche Vorbereitung aussehen könnte.

(mack)