Kommentar: Was wir aus dem Drama bei OpenAI lernen können

Jetzt kommt Sam Altman also doch wieder zu OpenAI zurück. Durch die vielen Wendungen blickt man zwar nicht mehr durch, dennoch lassen sich daraus Lehren ziehen.

In Pocket speichern vorlesen Druckansicht 94 Kommentare lesen
Germany,-,January,24,2023:,Openai,Logo,On,The,Phone,And

(Bild: Camilo Concha / Shutterstock.com)

Lesezeit: 4 Min.

Was zur Hölle ist das los bei OpenAI? Das Drama um eines, wenn nicht gar das wichtigste KI-Unternehmen der Welt entwickelt sich täglich weiter. Breaking News: Jetzt kommt Sam Altman doch wieder zurück zu OpenAI, nachdem er erst kürzlich spektakulär gefeuert wurde. Die ganze Geschichte ist aber im Grunde genommen für externe Beobachter noch immer genauso undurchsichtig wie nach dem Auftauchen der ersten Schlagzeilen.

Sam Altman Superstar, eine der "Lichtgestalten des Silicon Valley", der noch vor wenigen Monaten in einer Art Blitztournee den Regierungschefs der gesamten Welt erklärte, was KI ist und wie man sie auf gar keinen Fall regulieren sollte, wurde vom Aufsichtsrat von OpenAI entlassen. Weil er "nicht vollkommen aufrichtig" in seiner Kommunikation mit dem Board war – was immer das heißen mag. Hat Altman das Board belogen? Hat er hinter dem Rücken des Aufsichtsrates die Entwicklung neuer Produkte angestoßen? Das Wissen im Moment nur sehr wenige Personen, und die sprechen nicht darüber. Der Rest kann nur spekulieren. Dennoch können wir aus den Geschehnissen lernen.

Denn erstens lautet eine zurzeit recht weitverbreitete Interpretation, dass es um eine Richtungsentscheidung bei OpenAI ging: Während das Team der KI-Doomer dafür ist, alle möglichen Vorsichtsmaßnahmen zu ergreifen, um zu verhindern, dass ein großes KI-Modell außer Kontrolle gerät, glauben die "Technik-Optimisten" an die technischen und vor allem wirtschaftlichen Vorteile, die ihnen solche Modelle bieten. Und drängen deshalb auf eine schnelle Entwicklung kommerzieller Anwendungen.

Im ersten Anlauf sah es so aus, als hätten die Doomer sich durchgesetzt, weil Altman, der sich eher für die schnelle Entwicklung neuer Produkte eingesetzt hat, gefeuert wurde. Dann aber haben rund 700 Angestellte von OpenAI Altman, dem Technik-Optimisten, in einem offenen Brief den Rücken gestärkt und mit der eigenen Kündigung gedroht, falls Altman nicht zurückkommt.

Ein Kommentar von Wolfgang Stieler

Nach dem Studium der Physik wechselte Wolfgang Stieler 1998 zum Journalismus. Bis 2005 arbeitete er bei der c't, um dann als Redakteur der Technology Review zu wirken. Dort betreut er ein breites Themenspektrum von Künstlicher Intelligenz und Robotik über Netzpolitik bis zu Fragen der künftigen Energieversorgung.

Das Erstaunliche daran ist: OpenAI ist eine Organisation, die explizit gegründet wurde, um eine AGI, eine mindestens menschenähnliche Künstliche Intelligenz zu entwickeln. Zur Einführung des kommerziellen Zweiges der Organisation hatte es 2019 erheblich gegrummelt in der Firma. Mit anderen Worten: Ich hätte gewettet, dass es bei OpenAI jede Menge Die-Hard-KI-Doomer gibt und verhältnismäßig wenige Technikoptimisten. Dann hätten die Kräfteverhältnisse bei OpenAI aber komplett andersherum aussehen müssen. Was wiederum bedeutet, dass entweder die These von der Richtungsentscheidung falsch ist oder die KI-Weltuntergangsfraktion nicht so verbreitet ist, wie es bislang schien.

Und noch etwas Wichtiges können wir an dieser Stelle lernen: Selbst in einer tiefen Krise ist OpenAI noch in der Lage, die öffentliche Aufmerksamkeit am Nasenring durch die Manege zu ziehen. Der ganze Streit über das "Alignment" von KI ignoriert hartnäckig die Probleme mit KI, die wir jetzt bereits haben: Bias, Intransparenz, exklusiver Zugang für wenige, Sicherheitsprobleme, Datenlecks, potenzieller Missbrauch auf ganz vielen Ebenen: Auf all diese Fragen haben weder die Doomer noch die Technikoptimisten schlüssige Antworten.

Nur mal so als Beispiel: Wenn es ihnen wirklich ernst wäre mit der "Eigenverantwortung" müssten die Hersteller großer Sprachmodelle sich zusammentun, um endlich Wege zu finden, die Halluzinationen der Modelle zu kontrollieren und zu unterbinden. Denn erst dann lassen sich diese Modelle wirklich produktiv einsetzen. Stattdessen machen sie sich gegenseitig bei der Vermarktung von KI-Assistenzsoftware Konkurrenz. Dass sich an dieser Situation wirklich etwas ändert, wenn Sam Altman zu Microsoft geht, wage ich sehr zu bezweifeln. Es wird aber wahrscheinlich auch dann nicht besser werden, wenn er zu OpenAI zurückkommt.

(wst)