OpenAI und der Streit um die Zukunft der KI

Ein philosophischer Konflikt zwischen Verheißung und Vernichtung rüttelt an einer der wichtigsten KI-Schmieden der Welt.
18.11.2023

OpenAI | Superintelligenz | Richtungsstreit
(16 Minuten Lesezeit)

Blitzzusammenfassung_(in 30 Sekunden)

  • Am Freitag wurde Sam Altman völlig unerwartet als CEO der KI-Schmiede OpenAI herausgeworfen – ein Schock für die Szene.
  • Dahinter steht womöglich ein Richtungsstreit in der Frage, was bei der KI-Entwicklung der richtige Mix aus Geschwindigkeit und Sicherheit ist.
  • Konkret treibt einige Forscher das Risiko einer feindselig agierenden Superintelligenz um. Das klingt nach Futurismus, doch wird in dem Feld sehr ernst genommen.
  • Vieles deutet darauf hin, dass eine Fraktion der “Besorgten” eine Art Palastputsch gegen die “Beschleuniger” durchgeführt hat. Dabei half ihnen die äußerst ungewöhnliche Struktur von OpenAI, welches früher als Non-Profit operierte.
  • Sollte Altman OpenAI verlassen, ist die Zukunft der Firma unklar, mit einigen Folgen für den Techsektor. Allerdings laufen Stand Sonntag, 19.11., offenbar Gespräche über eine Rückkehr.

Was ist OpenAI?_

(7 Minuten Lesezeit)

Eine Schockmeldung für die Techszene am Freitag: Das Board of Directors der KI-Schmiede OpenAI, in etwa dessen Aufsichtsrat, hat CEO und Mitgründer Sam Altman, 38 Jahre alt, herausgeworfen. Und zwar regelrecht per unehrenhafter Entlassung: Altman sei nicht “konsistent offen” in der Kommunikation mit dem Aufsichtsrat gewesen, womit dieser “das Vertrauen verloren” habe.

Im Unternehmenssprech ist das eine kaum versteckte Ohrfeige. Einer der Superstars der KI-Szene wird über Nacht gefeuert, offenbar aufgrund persönlichen Versagens. Direkt danach trat Präsident und Mitgründer Greg Brockman zurück. Beide seien “schockiert und traurig über das, was der Aufsichtsrat heute getan hat” und würden ebenfalls, wie wohl sämtliche Beobachter der Techszene, “noch versuchen, zu verstehen, was genau passiert ist”.

Wenn selbst die betroffenen Firmenchefs noch nicht wissen, was zu ihrem Rauswurf geführt hatte, kann es whathappened umso weniger. Es gibt aber einige Hinweise, worum es geht. Nämlich um eine gleichermaßen alte und neue Debatte darüber, ob Künstliche Intelligenz eher Utopie oder Vernichtung bedeutet.

Dazu gleich. Erst einmal: Was genau ist OpenAI?

Gut zu wissen: Wenn du mehr zu Künstlicher Intelligenz erfahren möchtest – was sie ist, wie sich das Feld entwickelt hat und was die Empirie rund zu Sorgen über Arbeitsmarktfolgen aussagt – schau in unseren ersten KI-Explainer aus März 2023. Du findest den Link auch ganz unten.

KI für die Welt

OpenAI startete Ende 2015 als ein Versuch, ein führendes, unabhängiges Institut für Künstliche Intelligenz aus dem Boden zu stampfen. Sam Altman, damals CEO des wohl berühmtesten Startup-Inkubators YCombinator, arrangierte ein Treffen mit seinem Freund und Techmagnaten Elon Musk sowie mehreren weltweit führenden KI-Forschern, welche damals allesamt in Techkonzernen arbeiteten. Sie fassten den Beschluss, ein unabhängiges KI-Institut zu kreieren, welches die Technologie vorantreiben und zugleich fundamentale Sicherheitsrisiken lösen könne. Unter den Mitgründern waren die KI-Forscher Wojciech Zaremba und Ilya Sutskever, welche die Deep-Learning-Projekte bei Google und Facebook vorangetrieben hatten, und der Investor Greg Brockman, welcher zuvor Technologiechef (CTO) beim Zahlungsstartup Stripe war.

Das Besondere war, dass OpenAI kein hochfinanziertes Techstartup im klassischen Sinne war, sondern eine Non-Profit-Organisation, wenn auch mit über 100 Millionen USD Startkapital (zugesichert war 1 Milliarde USD, doch sie materialisierte sich nicht). Die Forschung wäre frei von Quartals- oder Jahresergebnissen als Zielvariable; technologische Durchbrüche sollten der Welt frei zur Verfügung geteilt werden. Daher auch der Name “OpenAI”. Das war 2015 übrigens noch ein weitaus neueres Phänomen als heute: Damals behandelten die Techkonzerne ihre KI-Fortschritte wie Staatsgeheimnisse. Es dürfte auch OpenAI gewesen sein, welches über die Jahre den Wert von mehr Transparenz und Austausch aufgezeigt hatte. In den Worten des KI-Forschers Yann LeCun: “Wenn du im Geheimen forschst, fällst du zurück”. 

Gut zu wissen: OpenAIs Geldgeber in den ersten Tagen waren neben Musk und Altman auch die Techinvestoren Reid Hoffmann und Peter Thiel, der indische IT-Anbieter Infosys und Amazons Cloudsparte AWS.

OpenAIs einzigartiger Ansatz dürfte der Grund gewesen sein, warum sich überhaupt so viele der besten Wissenschaftler voller Idealismus für das neue Projekt überzeugen ließen. Denn die Gehälter, die OpenAI zahlte, waren zwar auf “Konzernniveau”, doch weit entfernt von den Unsummen, welche die Techriesen bezahlten. Zaremba beschreibt das Geld, mit welchem Google und Co. die Forscher halten wollten, als “grenzwertig verrückt“. Noch bis wenige Stunden vor der offiziellen Präsentation der Organisation versuchten die Techriesen, OpenAIs Talente heraus- oder zurückzukaufen.

Der Versuch, das neue KI-Institut unter einer Lawine aus Geld zu begraben, scheiterte und OpenAI wurde Teil des Felds.

Ein langsamer Start

Das erste “Geschenk” von OpenAI an die Welt kam im Frühjahr 2016, kein halbes Jahr nach der Gründung. Es handelte sich um eine Art Trainingskit für sogenanntes Reinforcement Learning, eine Methode zum Training von KI-Systemen. Möglich wurde das auch, weil Techkonzern Nvidia der neuen Organisation einen Supercomputer geschenkt hatte – ein Signal dafür, wie die etablierten Konzerne zugleich mit Skepsis und Interesse auf den Non-Profit-Neuankömmling blickten. Es folgten weitere Programme, welche allerdings eher unter Interessierten als in der breiten Öffentlichkeit wahrgenommen wurden. Darunter erste, rudimentäre Sprachmodelle und eine KI, welche im kompetitiven Computerspiel Dota 2 die Weltmeister schlagen konnte. Es war kein fulminanter Einstand.

Über die Jahre machte OpenAI nicht nur mit seiner Forschung von sich sprechen, sondern auch mit seiner Struktur. Schon früh fragten Beobachter, ob eine Nähe des neuen Instituts zu den Firmen des YCombinators (unter Sam Altman) oder von Elon Musk vermeidbar sei. Zudem weckte OpenAI früh Zweifel, wie ernst es seinen Non-Profit meinte: Es behielt sich “Strategiewechsel” vor und sprach von “präventiven Patenten”, mit welchen es andere Firmen von der Patentierung bestimmter Technologien abhalten wolle. Auch die vielgepriesene Offenheit wurde mit der Zeit qualifiziert: Die gesamte Forschung im Offenen zu betreiben sei nicht unbedingt der beste Weg, so Brockman 2016.

For-ein-bisschen-Profit

Knapp zwei Jahre nach der Gründung kam es zu einem ersten öffentlichkeitswirksamen Konflikt: Elon Musk war mit den Ergebnissen der KI-Schmiede unzufrieden und beklagte, dass sie weit abgeschlagen hinter Google und Co. sei. Also schlug er eine Lösung vor: Er würde OpenAI übernehmen und es selbst leiten. Altman und die anderen Gründer waren dagegen. Es kam zum Führungsstreit, welcher damit endete, dass Musk die Gruppe verließ und seine zugesicherten Spenden kassierte (offiziell nannte er als Grund einen Interessenskonflikt mit Tesla, doch das wurde von wenigen Beobachtern angenommen).

Musks Abzug riss ein Loch in die Finanzen von OpenAI. Also wurde im Jahr 2019 das Non-Profit-Modell teilweise aufgegeben. Stattdessen folgte eine ungewöhnliche “capped profit“-Struktur: Ein neuer For-Profit-Arm würde wie eine reguläre Firma operieren, Kapital einsammeln, Gewinne an Investoren ausschütten und Mitarbeiter an Erfolgen beteiligen – doch das eben nur gedeckelt (ungewöhnlicherweise würde CEO Altman außerdem keinerlei Anteile an der neuen Firma übernehmen). Sogleich stieg Techriese Microsoft als Großinvestor ein und versprach 1 Milliarde USD sowie viel Knowhow und Infrastruktur.

OpenAI erklärte den Pivot damit, dass eine reine Non-Profit-Struktur nicht imstande sei, die notwendigen Aufgaben zu erfüllen. Sei es, die rechenintensiven Algorithmen zu entwickeln oder Weltklasseforscher zu akquirieren und zu halten. Kritiker sahen es dagegen als Beweis, dass das Versprechen eines “open source”, Non-Profit-Instituts nie sonderlich ernst gemeint gewesen sei. Tatsächlich hatten Musk 2018 und Altman und Co. 2019 mit ihren Analysen aber durchaus recht: OpenAI hatte die Erwartungen bislang nicht erfüllen können. Während DeepMind, Teil des Alphabet-Konzerns, seine KIs schon 2016 die Meister im äußerst komplexen Brettspiel Go schlagen ließ, moderne Text-to-Speech-Systeme entwickelte (also realistisch klingende Vorleseprogramme) und mit AlphaFold kurzerhand das schwierige Problem der Proteinstrukturvorhersage löste, hatte OpenAI – etwas stark ausgedrückt – nur Dota vorzuweisen. Doch das sollte sich ändern: Der strategische Wandel und das Bündnis mit Microsoft boten den Anstoß für einige große Durchbrüche in der Künstlichen Intelligenz.

Gut zu wissen: OpenAIs Strategiewechsel verärgerte auch einige Mitarbeiter und sorgte für Abwanderungen. Einige OpenAI-Alumni gründeten später das KI-Startup Anthropic, welches heute ebenfalls als einer der Technologieführer im Bereich großer Sprachmodelle gilt und einen eigenen Chatbot betreibt.

Die LLM-Revolution

Der erste große Wurf war tatsächlich bereits Anfang 2019 gelungen, kurz vor dem PivotGPT-2 benötigt heute wohl keine Vorstellung mehr als Vorgänger jener Sprachmodelle (Large Language Models, LLMs), auf welchen heute ChatGPT basiert. Es war das damals leistungsfähigste Sprachmodell, welches erstmals imstande war, ein breites Publikum zu beeindrucken – auch wenn dieses damals in erster Linie noch immer aus Tech-Journalisten bestand – und Sprachmodelle auf den Radar vieler Beobachter zu bringen. GPT-2 bestand aus über 1,5 Milliarden Parametern (grob gesagt ein Maß für die Komplexität eines Modells), nach circa 120 Millionen bei GPT-1 aus dem Jahr 2017.

Ein Jahr später folgte GPT-3 mit 175 Milliarden Parametern und im Jahr darauf das Bildgenerationsprogramm DALL-E. Beide wurden in den Folgejahren weiter verbessert. Im Dezember 2022 sicherte sich OpenAI dann seinen Platz in der Weltgeschichte und im Pantheon der Künstlichen Intelligenz: Es veröffentlichte ChatGPT.

Über den Chatbot ist ausreichend geschrieben worden, darunter auch in unserem Explainer zu Künstlicher Intelligenz im März 2023. Gesagt sei hier nur, dass ChatGPT das erste Mal war, dass ein so breiter Teil der Öffentlichkeit so zugänglich mit einem dermaßen machtvollen KI-Programm interagieren konnte. Jeder verstand es intuitiv (auch dank eines auf Zugänglichkeit ausgerichteten User Interfaces) und konnte damit herumspielen; die Leistungsfähigkeit des Sprachmodells machte den Bot dabei nicht etwa zu einem schrullig-charmanten Spielzeug, sondern zu einem wirklich beeindruckenden Tool, mit vielen Anwendungsmöglichkeiten und “emergent properties“, also Fähigkeiten, welche eigentlich gar nicht vorgesehen waren – zum Beispiel Coding oder Aktienkursanalyse.

Gut zu wissen: Als Beispiel für “schrullig-charmante Spielzeuge” erinnerte sich die whathappened-Redaktion an den “gedankenlesenden Dschinn” Akinator einer französischen Videospielfirma aus dem Jahr 2007. Dieser ist mittels einer KI imstande, zu erfragen, an welchen realen oder fiktiven Charakter der Spieler denkt. Die Redaktion kann bestätigen, dass Akinator im Jahr 2023 den getöteten IS-Anführer Abu Bakr al-Baghdadi korrekt erkennen kann.

An der Spitze angekommen

ChatGPT katapultierte OpenAI umgehend in die erste Riege der KI-Entwickler. Google, Meta und Co. wirkten plötzlich wie Verfolger, welche erst mit eigenen Chatbots nachlegen mussten (und zum Teil noch immer müssen). Microsoft verwob OpenAIs Produkte eng mit seinem eigenen Ökosystem und schob 10 Milliarden USD an Investment hinterher. In einer bevorstehenden Finanzierungsrunde wird OpenAI wohl mit mindestens 80 Milliarden USD bewertet, was es zu einem der wertvollsten Startups der Welt machen würde. Für dieses Jahr rechnete die Firma mit 1 Milliarde USD Umsatz, 2024 mit “vielen Milliarden”. Sam Altman geriet zu einer der gefragtesten Stimmen der Welt, traf sich mit Staatschefs, sprach auf KI-Kongressen und zuletzt auch auf dem Gipfel der Asia-Pacific Economic Cooperation (APEC).

Der Erfolg von OpenAI peitschte allerdings auch einen Diskurs an, welcher in dem Feld bereits seit Jahrzehnten geführt wurde. Mit ihm hängt womöglich Altmans Rauswurf zusammen. Es ist die Frage nach der Sicherheit von Künstlicher Intelligenz.

Superintelligenz_ 

(6 Minuten Lesezeit)

Quelle: Duncan Rawlinson, flickr

Das Downside Dilemma

Künstliche Intelligenz kann die Zerstörung der Menschheit herbeiführen. Einen solchen Satz zu schreiben, fällt der whathappened-Redaktion, welche sich darauf rühmt, noch bei keinem einzigen Regionalkonflikt den Dritten Weltkrieg heraufbeschworen zu haben, wirklich nicht leicht. Doch die theoretische Basis für die Behauptung ist solide (wenn auch mit viel Unsicherheit behaftet); zu ihren Warnern gehören wichtige Vordenker wie der Philosoph Nick Bostrom und der KI-Forscher Eliezer Yudkowski.

Der Gedanke geht folgendermaßenBislang sind KIs allesamt sehr nischenspezifisch: Sie konnten wahlweise die Stärke von Schachzügen analysieren, Merkmale in Bildern erkennen, ein Auto steuern oder per Wahrscheinlichkeitsfunktion lebensecht klingende Sprache herausgeben. Bei allen “emergent properties” könnten aber weder eine Schach-KI noch ChatGPT ein Auto fahren, selbst wenn man ihnen unendlich viel Zeit geben würde, herumzuprobieren (ChatGPT kann nicht einmal Schach spielen, auch wenn es selbstbewusst so tut). Die KI-Tools sind nicht imstande, ihre Intelligenz über viele Bereiche hinweg anzuwenden, Gelerntes zu übertragen oder zu abstrahieren. Ebenso wenig können sie ihren Lernprozess selbstständig verbessern oder neues durch Beobachtung oder Schlussfolgerung erlernen. Es handelt sich bei ihnen – sowie bei sämtlichen anderen existierenden KI-Anwendungen – um Artificial Narrow Intelligence (auch weak AI genannt), also “enge” KI.

Artificial General Intelligence

Dabei muss es nicht bleibenEine Artificial General Intelligence (AGI, auch strong AI), also eine “Künstliche allgemeine Intelligenz”, wäre die theoretische nächste Stufe. Sie wäre definitionsgemäß imstande, alle intellektuellen Aufgaben zu erledigen, welche Menschen durchführen können und so gut wie diese zu lernen. Das setzt eine äußerst vielseitige und flexible Intelligenz voraus.

Erreicht eine KI erst einmal das Niveau von AGI, könnte sie in sehr kurzer Zeit noch schlauer werden. Ausgestattet mit versatiler Intelligenz auf menschlichem Niveau, doch weitaus mehr Rechenkraft, könnte eine AGI ab einem gewissen Intelligenzniveau imstande sein, ihre eigene Intelligenzstruktur zu verstehen und Verbesserungspotenziale zu finden. Sie wüsste, wie sie ihre neuronale Architektur anpassen muss, um nicht nur intelligenter zu werden, sondern besser darin zu werden, intelligenter zu werden. Mit jedem Plus an Intelligenz wächst dann die Fähigkeit, diese weiter zu verbessern. Ein exponentielles Wachstum setzt ein, eine Intelligenzexplosion – der take-off. Und plötzlich, innerhalb von Jahren, Monaten, Tagen oder nur Minuten, wäre aus der AGI eine Artificial Superintelligence (ASI) geworden – eine Superintelligenz.

Auch Menschen lernen dazu und verbessern ihre Ausgangslage, namentlich durch neue Technologien, welche als Helfershelfer der menschlichen Intelligenz wirken. Das menschliche Gehirn bleibt dahinter aber stets dasselbe. Und selbst wenn sich evolutionär langsame Verbesserungen in der Gehirnarchitektur durchsetzen würden, so wäre der Prozess der Evolution (mehr oder minder) stabil. Eine künstliche Superintelligenz hätte solche Limitationen nicht. Sie würde sich nicht einfach nur verbessern, sondern ihre Verbesserungsfunktion verbessern. Daher also das exponentielle Wachstum.

ASI, triff Menschheit

Welche Auswirkungen eine ASI auf die Menschheit hätte, ist schwierig vorherzusagen, doch er wäre in jedem Fall signifikant. Bostrom und Yudkowsky sprechen davon, dass eine ASI “das menschliche Leben bewahren und [der Menschheit] dabei helfen könnte, ihr Potenzial zu erfüllen” oder sie aber “auslöschen” könne. Um das Potenzial einer ASI zu illustrieren, lohnt sich ein Vergleich zwischen Menschen und Hunden, wie ihn der Computerwissenschaftler Vernor Vinge macht. Menschen sind Hunden in Sachen Intelligenz überlegen, doch das ist nicht nur eine Funktion der reinen Rechenpower. Würde man ein Hundegehirn um das 1.000-fache beschleunigen, würde es noch immer nicht an die Intelligenz eines Menschen heranreichen – es gibt also einen qualitativen und nicht rein quantitativen Unterschied, welcher mit der Gehirnarchitektur zusammenhängt. Eine ASI wäre demnach auf einem anderen qualitativen Level an Intelligenz als Menschen.

Doch warum sollte ein KI-Programm überhaupt feindselig gegenüber Menschen agieren? KIs sind weder inhärent “gut” noch “böse”, sondern letztlich ihrer Programmierung unterworfen. Dort stellt sich allerdings das sogenannte “alignment problem“, also Gesinnungsproblem. Beim alignment geht es darum, dass die KI tut, was ihr aufgetragen wurde – und nur das tut. Misslingt das, etwa weil Entwickler eine fragwürdige Zielvariable gesetzt haben oder eine sinnvolle Zielvariable falsch gesetzt haben, arbeiten KI und Menschen nicht mehr zusammen (aligned). Im Falle einer Superintelligenz kann das extreme Folgen haben. 

Ein beliebtes und fast schon charmantes Beispiel ist die Büroklammer-Fabrik: Eine ASI mit dem Auftrag, Büroklammern herzustellen, könnte realisieren, dass sie mit immer mehr Energie immer mehr Büroklammern herstellen kann. Also beginnt sie, den Planeten in eine Fabrik umzuwandeln – denn Büroklammern sind schließlich ihr einziges Ziel. Da Menschen versuchen könnten, die KI zu stoppen und damit eine Gefahr für die Erfüllung der Zielvariable darstellen, müsste sie sämtliche Menschen eliminieren (z.B. durch den Einsatz von heimlich produzierten Nanorobotern) und am besten gleich ebenfalls in Büroklammerrohstoff umwandeln. Das Beispiel mag abstrus klingen, doch funktioniert gut zur Veranschaulichung des alignment problem mit einem übermächtigen Akteur. Und wird von KI-Forschern als durchaus valider Worst Case gehandelt.

Gut zu wissen: Die Einteilung der ASI-Szenarien in “Utopie” oder “Vernichtung” ist nach Meinung des Philosophen Nick Bostrom reduktiv. Er bezeichnet das als “good-story bias“, also als Instinkt, Sachverhalte so darzustellen, dass sie sich gut als Story erzählen ließen – und dafür braucht es eben Extremfälle. Wie sich diese Kritik mit seiner eigenen recht extremen Trennung, welche wir oben zitiert haben, vereinbaren lässt, ist uns nicht ganz ersichtlich.

Im Jahr 2022 befragte Forscher verorteten eine 50-prozentige Wahrscheinlichkeit für die Existenz einer AGI etwa in den 2060ern, wenn wir nach der Medianmeinung gehen. Nur rund 1% zweifelt vollständig an ihrer Erreichbarkeit. Per Klick auf die Grafik gelangst du zu einer höher aufgelösten Version. Quelle: Our World in Data

Warten auf die AGI

Wichtig ist es, zu verstehen, dass AGI heute noch ein rein theoretisches Konzept ist. Ob sie überhaupt erreichbar ist, ist umstritten. Ein Großteil der KI-Forscher bejaht das zwar, doch verortet seinen “50-Prozent-Moment” (also an welchem es mit 50-prozentiger Wahrscheinlichkeit eine AGI gäbe) weit in die Zukunft – der Median in die 2060er. Bemerkenswert ist jedoch, wie weit die KI in den letzten Jahren dank Techniken wie Machine Learning und Deep Learning gekommen ist. Gegenüber den Spielereien der 1960er, den “Expertensystemen” (sprich, Bürosoftware) der 1980er und den limitierten KIs der 1990er und 2000er (welche etwa begannen, Menschen in zahlreichen Spielen zu besiegen), ist die Künstliche Intelligenz heute weitaus reifer und machtvoller. Autonome Fahrzeuge und große Sprachmodelle sind nicht mehr völlig narrow, sondern müssen ein verhältnismäßig breites “Verständnis” der Welt um sich herum besitzen. “Verhältnismäßig” ist hier allerdings wichtig, denn der Weg zu einer echten AGI scheint noch immer weit.

Die Distanz ist allerdings deutlich kürzer als noch vor einigen Jahren. Der Durchbruch von ChatGPT hat das Thema AGI und mit ihr die Frage nach den potenziell katastrophalen Abwärtsrisiken von KI stärker ins Bewusstsein der Szene gebracht – und beschäftigt am Rande erstmals auch Regulatoren, Politiker und Medien. Die Entscheidung zwischen Geschwindigkeit und Sicherheit trennt das Feld in “Beschleuniger” und “Untergangspropheten” (wir übersetzen das englische “Doomer” hier nicht sonderlich unschmeichelhaft).

Gut zu wissen: Die OpenAI-Mitarbeiter halten jedes Jahr eine Abstimmung darüber ab, wann die Welt ihre erste AGI erlebt. 2020 stimmte die Hälfte der Firma dafür, dass es binnen 15 Jahren so weit sei. Das gehört in dem Feld zu den optimistischen Schätzungen (die alleroptimistischsten erkennen eine AGI noch in diesem Jahrzehnt). 

Die “Untergangspropheten” fragen ihr Gegenüber gerne, was deren “p” sei – also kurz für probability, Wahrscheinlichkeit. Gemeint ist, wie hoch die Wahrscheinlichkeit für ein katastrophales ASI-Szenario eingeschätzt wird. Und wenn dieses über null liegt – was die meisten Beobachter einräumen -, doch der mögliche Schaden bis hin zur kompletten Auslöschung der Menschheit reicht, müssten wir uns sehr vorsichtig bei der Entwicklung von KI bewegen. Die Gegenseite lasse sich von Techno-Optimismus blenden, so die Kritik, und riskiere nicht weniger als die Zerstörung der Menschheit.

Die Beschleuniger halten das sehr geringe Risiko einer katastrophalen ASI für vertretbar gegenüber den absolut greifbaren Vorteilen einer fortschreitenden KI-Entwicklung (darunter übrigens auch, dass sie andere existenzielle Risiken verringern könne, von tödlichen Pandemien bis zum Klimawandel). Und sie sind optimistischer darin, dass sich die Gefahren einer ASI eindämmen lassen, zum Beispiel, indem das alignment problem hinreichend gelöst wird. Dann rücken die Vorteile einer ASI in den Vordergrund. So wie sie die Welt radikal zum Schlechten verändern könnte, so könnte sie sie auch radikal zum Besseren verändern. Die Gegenseite werde von Angst geblendet und riskiere, große Potenziale ungenutzt zu lassen oder anderen – vielleicht fragwürdigeren – Akteuren die Technologieführerschaft zu überlassen.

Derselbe Streit herrschte auch bei OpenAI. 

Richtungsstreit_ 

(3 Minuten Lesezeit)

Sam Altman, Ilya Sutskever. Quelle: Abigail Uzi

Palastputsch

Bei OpenAI gehörte eine Fraktion um CEO Altman zu den “Beschleunigern”, welche relativ optimistisch auf das Katastrophenrisiko von KI geblickt haben und es mit dem aktuellen Tempo bei der KI-Entwicklung für vereinbar hielten (sie negierten aber keineswegs die Existenz der Risiken). Die andere Fraktion, die “Untergangspropheten” um den Chefwissenschaftler Ilya Sutskever, forderte dagegen mehr Bemühungen, die Sicherheit von KI-Systemen zu verbessern, auch auf Kosten von Entwicklungsgeschwindigkeit. Sutskever baut derzeit beispielsweise ein eigenes Team auf, welches sich nur um die Lösung des alignment problem kümmern soll, unter dem Projektnamen Superalignment.

Es war offenbar Sutskever, welcher den Rauswurf Altmans vorantrieb und es gibt Hinweise, dass das mit den Meinungsunterschieden über die Abwägung von Geschwindigkeit und Sicherheit zusammenhing. Dazu gilt es zu verstehen, dass die besondere Struktur von OpenAI – eine Non-Profit-Organisation, welcher eine “capped profit”-Tochter untersteht und ein CEO ohne Anteile – einen plötzlichen Rauswurf sehr vereinfacht. Der Aufsichtsrat war mit sechs Mitgliedern (darunter Altman und Greg Brockman) sehr klein und ebenfalls ziemlich besonders: Die Direktoren sind außer Altman, Brockman und Sutskever allesamt firmenextern und besitzen keinerlei Verantwortung, den Finanzwert (also shareholder value) zu erhöhen. Ihre einzige Verantwortung ist es laut Vertrag, auf eine “sichere AGI, welche von allgemeinem Nutzen ist” zuzuarbeiten. Mindestens zwei der Direktoren (Tasha McCauley, Helen Toner) gehören der Bewegung des Effektiven Altruismus an, in welcher die Forderung nach mehr KI-Sicherheitsforschung Prominenz erlangt hat (ein Dritter ist Adam D’Angelo, CEO der Frageplattform Quora).

Wie geht es weiter für OpenAI?

Der Rauswurf des prominenten Frontmanns sorgt derzeit für Schockwellen, denn er hat so ziemlich jeden überrascht, inklusive Altman selbst. Hauptinvestor Microsoft, welcher offenbar nicht im Voraus informiert war, reagierte verstimmt, denn es befürchtet, dass sein wichtiger KI-Partner jetzt allzu sehr mit sich selbst beschäftigt sein wird und das Techrivalen wie Google und Amazon eine Chance bietet. Das Führungschaos könnte OpenAI noch einige Monate lang beschäftigen, denn Altman scheint im Unternehmen beliebt gewesen zu sein und war fraglos sein Aushängeschild; eine Handvoll Mitarbeiter hat die Firma bereits aus Protest verlassen und weitere könnten folgen. Investoren in einer bevorstehenden Finanzierungsrunde könnten kalte Füße bekommen, denn der Umgang mit dem CEO ist alles andere als normal. Die Erklärung und Beruhigung der Lage fällt nun der bisherigen Technologiechefin Mira Murati zu, welche als CEO übergangsweise übernimmt und als gut vertraut mit dem Geschäftsbetrieb gilt.

Der Übergang könnte sehr kurz ausfallen, denn Altman und Brockman könnten womöglich einfach zurückkehren. Laut Medienberichten am frühen Sonntag – die Situation ist sehr dynamisch – befinden sich die beiden Geschassten und der Aufsichtsrat wieder in Gesprächen miteinander; offenbar eine Folge der Solidarisierungswelle mit Altman und einer angedrohten Massenkündigung. Der Aufsichtsrat habe mutmaßlich sogar seinen Rücktritt angeboten, doch im Anschluss eine Entscheidung verzögert. Altman sei derweil “zwiegespalten” über eine Rückkehr und verlange Änderungen in der Führungsstruktur. Damit ist also auch unklar, welche Seite sich im KI-Streit bei OpenAI letzten Endes durchsetzt.

Sollten Altman und Brockman die Firma verlassen, dürfen Beobachter der Techszene mit Spannung darauf achten, was sie als Nächstes tun. Ein neues Projekt der Beiden dürfte wohl von Anfang an auf eine Vielzahl von “mitgenommenen” OpenAI-Mitarbeiter, viel Funding und mediale Aufmerksamkeit setzen können.

Winter und Tauwetter

Die whathappened-Redaktion mag runde Geschichten und kann nicht anders, als eine Parallele zwischen OpenAIs Werdegang und jenem der Künstlichen Intelligenz selbst zu erkennen. Die Disziplin war mit viel Begeisterung und Hype in den 1960ern gestartet, nur um schnell in den ersten “KI-Winter” aus Ernüchterung, ausgetrockneten Investorengeldern und wenigen Resultaten zu rutschen. Ähnlich ging es OpenAI nach dessen erwartungsvoller Gründung. Doch so wie bei der KI nach dem “Winter” die Durchbrüche der 1980er folgten, so hat auch OpenAI nach 2019 eine fulminante Entwicklung durchgemacht und es in die Spitzenklasse der KI-Schmieden geschafft. Für das Feld folgte in den späten 1980ern ein zweiter KI-Winter. Ob nun auch OpenAI auf einen erneuten Abstieg blickt, erfahren wir in den kommenden Wochen. Die Frage, in welche Richtung die Zukunft der KI geht, wird sich wohl erst über einen längeren Zeithorizont entscheiden.

Scroll to Top