Die Vergangenheit, Gegenwart und Zukunft der Künstlichen Intelligenz


Keine Technologie wie jede andere.

Vergangenheit | Gegenwart | Zukunft
(14 Minuten Lesezeit)

Blitzzusammenfassung_(in 30 Sekunden)

  • Das Feld der Künstlichen Intelligenz (KI) entstand in den 1960ern mit viel Fanfare – und durchlief dann 40 Jahre an drastischen Aufs und Abs.
  • Seit 2012 haben eine Reihe an Entwicklungen, an erster Stelle die Deep Learning-Technik, zu einer neuen Qualität an KI-Systemen geführt.
  • Seitdem hat sich KI deutlich in Wirtschaft und Wissenschaft verankert; prägt Geschäftsmodelle und liefert gewichtige Innovationen – Chatbots sind nur ein Beispiel.
  • Der Siegeszug immer intelligenterer Algorithmen weckt Sorgen über die Zukunft, zum Beispiel über die Auswirkungen am Arbeitsmarkt. Die Empirie bietet Hinweise, dass Ängste über massiven Jobverlust deplatziert sein dürften.
  • Blickt man besonders weit in die Zukunft, wird es exotisch: Dem Menschen ebenbürtige KIs oder Superintelligenzen beschäftigen Forscher.

Vergangenheit_ 

(3 Minuten Lesezeit)

Können Maschinen denken?

Wie man sich doch irren kann: Es brauche einen Sommer, um weitreichende Fortschritte im Feld der Künstlichen Intelligenz (KI) zu machen, wenn ein sorgfältig ausgewähltes Forscherteam sich gemeinsam an die Aufgabe mache. Das hatte John McCarthy, ein amerikanischer Informatiker, 1956 erklärt. Und sein Landeskollege Marvin Minsky erklärte 1967, dass das Problem, eine Künstliche Intelligenz zu erschaffen, “innerhalb einer Generation faktisch gelöst sein wird”. So falsch die beiden gelegen haben mögen, so verdienen sie doch reichlich Respekt: Sie gelten als zwei der Gründungsväter der Disziplin der Künstlichen Intelligenz; und die Dartmouth Konferenz im Sommer 1956 war deren Genesis.

Die Idee einer künstlichen Intelligenz ist seit jeher eine reizvolle. Intelligenz ist im Konkreten schwierig zu definieren, doch beschreibt in etwa die domänenübergreifende Problemlösekompetenz eines Akteurs und determiniert damit auch die Position des Menschen in der Welt sowie seinen Umgang mit selbiger. Es war der relativ plötzliche Sprung in hominider Intelligenz vor rund 60.000 Jahren, welcher unsere Spezies auf einen neuen Entwicklungspfad brachte und letztlich zu dem machte, was sie heute ist. Die Suche nach einer künstlichen Intelligenz war und ist damit, gewissermaßen, auch eine Suche nach uns selbst. Darüber hinaus versprach sie jedoch auch, eine völlig neue Form von Technologie zu kreieren: Eine, welche lernen kann.

In den 1950ern und 60ern schien diese Vision nahe. Goldgräberstimmung und wissenschaftliche Faszination, angestoßen womöglich von der offenen Diskussionsfrage des britischen Computerwissenschaftlers Alan Turing 1950, “Können Maschinen denken?” sorgten für regen Zulauf in das Feld der KI. Die Darthmouth-Konferenz fungierte als Katalysator. Immer mehr Forscher, Forschungsgelder und öffentliches Interesse strömten hinein.

Winter, Frühling, Winter, Frühling, …

Es folgte allerdings Ernüchterung. Das Feld der KI konnte die hochgesteckten Erwartungen nicht erfüllen. Nur in sehr “schmalen” Einsatzfeldern, also mit äußerst spezifizierten Regeln und klar abgesteckten Welten – zum Beispiel in Spielen – gelangen nennenswerte Fortschritte. Da wäre die kleine Robotermaus “Theseus“, welche ein Labyrinth ablaufen konnte, oder der Perceptron Mark I, welcher Karten dahingehend unterscheiden konnte, ob sie links oder rechts markiert waren. Ein Limit für die Komplexität der KI war der “Symbolansatz“, welcher etwa die ersten 40 Jahre dominierte. Dabei wurden sämtliche Elemente und Interaktionen der darzustellenden “Welt” in Symbole und Regeln für selbige übersetzt – zu aufwändig, komplex und fehlerintolerant für eine breite Anwendung, zumindest damals. Der KI-Winter brach spätestens in den 1970ern über die Welt hinein: De öffentliche Meinung kühlte herab, die Gelder versiegten und Forscher wandten sich von dem Feld ab.

Der Zyklus aus Begeisterung und Ernüchterung prägte die KI-Forschung über die nächsten vierzig Jahre. In den 1980ern schufen japanische Firmen, oft in Partnerschaft mit dem Staat, sogenannte “Expertensysteme“. Über “Wenn-Dann”-Logik und unterfüttert mit Wissensdatenbanken unterstützten sie Menschen bei der Entscheidungsfindung und fanden damit in Unternehmen Einsatz – die erste ernsthafte Kommerzialisierung von KI-Systemen. Erneuter Enthusiasmus brach aus, doch Expertensysteme waren wahlweise zu teuer oder mussten mit zu kleinen Datenbanken auskommen. Ab den späten 80ern war das Tauwetter dem nächsten Winter gewichen.

Konfrontiert mit dem stetigen Auf und Ab durchlief die KI-Forschung in den 1990ern einige wichtige Veränderungen. Erstens konzentrierte sie sich auf kleinere Ziele und “schmale” Anwendungen, statt auf eine vollwertige, menschengleiche künstliche Intelligenz zuzuarbeiten – domänenspezifische statt domänenübergreifende Intelligenz, sozusagen. Zweitens wurde der “Symbolansatz” um den “Konnektionismus” ergänzt, welcher sogenannte künstliche neuronale Netzwerke zur Basis von KI machte. Das erlaubte die Entwicklung von Machine Learning, also maschinellem Lernen, in welchem Algorithmen anhand ihrer Daten lernen und sich optimieren konnten. 1994 gewann die Software CHINOOK die Dame-Weltmeisterschaft und konnte so erstmals sämtliche Menschen in einem etablierten Spiel schlagen. Nur drei Jahre schlug Deep Blue den Schachweltmeister Garri Kasparow.

Gut zu wissen: Wie genau lernen Algorithmen? Dafür gibt es unterschiedliche Ansätze. Beim supervised learning (Überwachtes Lernen) werden dem System gekennzeichnete Daten und klare Ziele formuliert, dann testet es sich laufend gegen diese. Beim unsupervised learning (Unüberwachtes Lernen) fehlen die Kennzeichnungen und klaren Zieldefinitionen. Beim reinforcement learning (Bestärkendes Lernen) erhält der Algorithmus ebenfalls kaum Anweisungen, doch versteht dank “Belohnungen” oder “Strafen”, wohin er sich zu bewegen hat.

Gegenwart_ 

(4 Minuten Lesezeit)

Quelle: James Grills

Die Deep Learning Revolution

Die nächste Revolution in der KI-Forschung geschah 2012, womit wir in der Gegenwart angelangt wären. Deep Learning, eine Variante des Machine Learnings mit komplexeren neuronalen Netzwerken, erlaubt effektivere KI-Anwendungen. Dazu kam das explosionsartige Wachstum bei den verfügbaren Datenmengen (im Sinne des inzwischen etwas aus der Mode geratenen Überbegriffs Big Data); der Aufstieg des Cloud-Computings, welches neue Rechnerkapazitäten schuf; und der Einsatz spezialisierterer Prozessoren namens GPU (zuvor aus Grafikkarten bekannt) anstelle klassischer CPU. KI wurde immer smarter, effizienter und nützlicher. Noch im Jahr 2010 schnitt die beste KI in einer alljährlichen Labelling-Herausforderung, in welcher KI-Systeme Bilder beschreiben müssen, mit 72 Prozent Präzision ab. Im Jahr 2012 waren es bereits 85 Prozent und 2015 dann 96 Prozent, ein Prozentpunkt über der menschlichen Präzision. 

Künstliche Intelligenz begann einen langsamen Siegeszug um die Welt. Die gängigsten Anwendungen von KI sind die Mustererkennung, bei welcher es darum geht, große Datensätze zu verstehen, Ausreißer zu identifizieren und Trends zu extrapolieren; Natural Language Processing (NLP), mittels welchem Systeme menschlich klingende Sprache verstehen oder wiedergeben können; Computer Vision, bei welcher KIs erkennen, was sie in einem Bild – oder in der physischen Welt – sehen; und Automatic Speech Recognition (ASR), bei welcher Systeme gesagte Sprache verstehen (zu welcher sich die Voice Recognition, bei welcher der Sprecher erkannt wird, als Unterkategorie zählen ließe).

AI makes the world go round

KI war plötzlich überall. Banken identifizierten betrügerische Transaktionen und E-Commerce-Shops sowie Streamingdienste empfahlen neue Artikel, indem Algorithmen das Nutzerverhalten analysierten. Ein guter Teil des Börsenhandels wird inzwischen von KIs geleistet. Sprachassistenzsysteme wie Alexa, Siri oder der Google Assistant stürmten dank ASR Smartphones und Smarthomes, welche ihrerseits Bastionen der KI wurden: Moderne Staubsaugerroboter nutzen für die Kartierung genauso KI wie Smartphones bei der Optimierung von Fotos. Lieferessen kommt per KI-geplanter Route (nämlich, indem das “Botenproblem” oder Traveling Salesman Problem etwas effektiver gelöst wird).

Wo manche Anwendungen profan, aber zweifelsohne nützlich klingen, sind andere monumental, aber schwierig zu begreifen: Eine KI aus dem Hause Deep Mind kann die Struktur von Proteinen vorhersagen, eine notorisch schwierige Herausforderung mit weitreichenden Folgen für die Medikamentenforschung. Autonome Fahrzeuge mögen zwar noch nicht die Straßen dominieren, doch existieren dort tatsächlich bereits und beweisen Computer-Vision-Fähigkeiten im hochkomplizierten Straßenverkehr. Selbst das, was heute unspektakulär Fahrassistenzsystem heißt, hätte vor einigen Jahrzehnten noch Magie geglichen. KI landet Raketen, verbessert Klimamodelle, schreibt Code zu Ende und schlägt Radiologen im Erkennen von Lungenkrebs

Und dann wären da noch die Spiele: Dass KIs im Schach dominieren oder Dame vollständig gelöst haben, mag kaum überraschen. Dass sie inzwischen auch im Go oder in Poker dominieren, ist dagegen beeindruckend: Beide Spiele galten als zu komplex, um mit purer Rechenkraft begangen zu werden und verlangen Menschen Intuition ab. Das Brettspiel Diplomacy erfordert wiederum Strategie, Verhandlungsfähigkeit und etwas Hinterlistigkeit – auch dort konnte eine KI jüngst gewinnen. Algorithmen schaffen es offenkundig, zutiefst menschlich scheinende Qualitäten in zumindest einigen wenigen Feldern durch pure Optimierungsfähigkeit zu approximieren. Nick Bostrom, ein schwedischer Philosoph und bekannter Experte zu Künstlicher Intelligenz, prognostizierte noch 2014, dass KIs in “etwa einem Jahrzehnt” Go auf Weltspitzenniveau spielen könnten. Es dauerte nur bis 2016.

Die Chatbots als Speerspitze

Für die jüngste Furore sorgte aber die Kategorie NLP: Der Chatbot ChatGPT aus dem Hause OpenAI erreichte im Winter 2022 innerhalb von zwei Monaten – so schnell wie noch keine andere Software zuvor – 100 Millionen Nutzer, indem er scheinbar konsistente Konversationen führen und darin nicht nur täuschend echt klingende Antworten, sondern sogar Kreativcontent liefern konnte. Es handelt sich bei ChatGPT um eine sogenannte Generative AIalso einen Algorithmus, welcher neuen Content kreiert. Tatsächlich verstehen tut ChatGPT nicht, was es sagt (was fairerweise auch für manch Menschen gelten mag), sondern gibt lediglich das Ergebnis einer Wahrscheinlichkeitsfunktion heraus: Das wahrscheinlichste nächste Wort, erlernt auf Basis eines Datensatzes. Entsprechend durchmischt sind ChatGPTs Ergebnisse bei Faktenfragen oder komplexen Sachverhältnissen. Dafür erlauben die neuen Chatbots natürlichere Suchanfragen anstelle des etablierten Google-Stakkatos (“Bestes Morning Briefing deutsch neutral”) und fungieren als Formulierungshilfen oder Kreativpartner. Zahlreiche Firmen wittern Potenzial: Microsoft sicherte sich über sein Investment in OpenAI Zugriff auf ChatGPT; Google, Baidu und Alibaba arbeiten an eigenen Rivalen; mehrere Startups sind ebenfalls im Rennen. Die Krise im Wagniskapital scheint plötzlich vergessen, wenn es um KI-Chatbots geht.

Das Besondere an ChatGPT war gar nicht unbedingt der Algorithmus, GPT-3.5, welcher bereits ein Weilchen zuvor existiert hatte. Er war zum Zeitpunkt seiner Veröffentlichung in seiner Kategorie fraglos eine absolute Innovation und Weltspitze; ist letzteres womöglich noch heute (oder hat den Titel schon an Konkurrenten verloren). Doch beeindruckende Sprünge bringen KI-Anwendungen in regelmäßigen Abständen, man denke nur an die Proteinfaltung. Doch meistens bleibt es für die Öffentlichkeit bei einer Schlagzeile, welche einige Tage später aus dem Gedächtnis schwindet. Der Unterschied im Winter 2022 war, dass ChatGPT ein Nutzer-Interface mit sich brachte, welches es intuitiv und zugänglich für Endnutzer machte. Plötzlich konnte jeder erleben und prägnant verstehen, wie weit KI gekommen war. Vielleicht noch nie zuvor war KI so spürbar, so tief ins Bewusstsein der Öffentlichkeit gerückt.

Gut zu wissen: Andere nennenswerte Generative AIs aus den letzten Monaten sind DALL-E und Midjourney, welche beide auf Basis von Texteingaben Gemälde oder Designs erstellen können. Jasper fungiert wiederum als KI-Copywriter, welcher Social-Media-Posts oder Video-Skripte erstellt.

Zukunft_ 

(6,5 Minuten Lesezeit)

Ab wann gibt es eine 50%-ige Chance dafür, dass eine Artificiall General Intelligence existiert? Quelle: Our World in Data

Der Arbeitsmarkt zwischen Sozialelend und Luddismus

Mit der Faszination kommt auch die SorgeKI werde Menschen obsolet machen und den Arbeitsmarkt leerfegen, so eine häufig geäußerte Befürchtung. Studien fachen diese Sorge mitunter an, so jene von zwei Oxford-Professoren, welche 2013 47 Prozent aller Beschäftigten in den USA akut durch technologischen Fortschritt bedroht sahen. Gleichzeitig kreiert neue Technologie aber auch Jobs, erstens in direktem Zusammenhang mit der Entwicklung, Bedienung und Verbesserung der Technologie; zweitens, weil ihre Produktivitätssteigerung mehr Ressourcen für andere Bereiche freisetzt. In diesem Sinne auch das häufig zitierte Beispiel, wonach die Zahl der Bankmitarbeiter in den USA nach der Einführung von Geldautomaten zunahm: Die Zahl der Mitarbeiter pro Filiale sank zwar, doch dank der höheren Produktivität konnten sich Banken mehr Filialen leisten. Drittens, weil die höhere Produktivität zu geringeren Preisen und damit zu mehr Nachfrage führen kann, welche gesamtwirtschaftlich mehr Jobs schafft. Viertens, weil höhere Produktivität sich in höhere Reallöhne sowie Kapitalerträge und damit höheren Einkommen (sprich, erneut mehr Nachfrage und Jobs) niederschlagen kann. 

Laut einer Meta-Analyse des renommierten Centre for Economic Policy (CEPR) erkennt eine relative Mehrheit aus 89 ausgewählten Studien, nämlich 29 Prozent, eine Zunahme der Beschäftigung durch neue Technologien, während 18 Prozent einen Rückgang erkennen (der Rest sieht keinen signifikanten oder einen uneindeutigen Effekt). Die Analysen sind nicht ganz einfach, denn jede Technologie kann unterschiedlich wirken, die gesuchten volkswirtschaftlichen Effekte sind schwierig von anderen zu isolieren und bei lange zurückliegenden Ereignissen wie der Industriellen Revolution ist die Datenlage durchwachsen. Dennoch scheint das Narrativ einer Jobzerstörung durch Technologie allermindestens zu vereinfacht. Viele Experten halten stattdessen eine “Jobpolarisierung” für wahrscheinlicher: KI könne bestimmte Jobs – vor allem Routinetätigkeiten – ersetzen und im Gegenzug neue, oftmals hochqualifizierte Stellen kreieren. Also weniger Lkw-Fahrer und Radiologen, dafür mehr Informatiker. Das ist zwar gut für die Gesamtwohlfahrt (und vermutlich für das Lohnniveau), doch trifft bestimmte gesellschaftliche Gruppen überproportional hart. Eine intelligente politische Reaktion darauf müsste Weiter- und Umbildungsmaßnahmen beinhalten; Technologieverbote wären dagegen eine Panikreaktion.

Die Sorge vor dem Untergang des Arbeitsmarkts ist eine alte, welche wohl jede Empirie – selbst wenn sie noch eindeutiger zugunsten der “Optimisten” ausfiele – überdauern dürfte. Schon Kaiser Vespasian im antiken Rom lehnte angeblich eine Innovation im Transportwesen ab, da “Ihr meinen armen Schleppern gestatten müsst, ihr Brot zu verdienen”. Inmitten der industriellen Revolution beschuldigte der schottische Philosoph Thomas Carlyle die “Dämonen der Mechanik” dafür, “ganze Scharen an Arbeitern versetzt” zu haben. US-Präsident John F. Kennedy warnte ähnlich wie der Wirtschaftshistoriker Robert Heilbroner in den 1960ern davor, dass die Automatisierung zur existenziellen Gefahr für den Arbeitsmarkt geraten würde. Und der Internationale Metallarbeiterverband prognostizierte 1989, dass innerhalb von 30 Jahren nur ein Fünfzigstel des Arbeitsmarkts benötigt werden würde, um die gesamte globale Güternachfrage zu decken.

Das ist nur ein kleiner Ausschnitt aus einem wahren Orchester an Warnungen, viele von ihnen durch intelligente Beobachter und mit vernünftigen Argumenten vorgebracht. Heutzutage würden jedoch nur die wenigsten Beobachter die Industrielle Revolution oder die Ära der Computer als langfristigen Fehler beklagen; der Arbeitsmarkt ist intakt, das Reallohnniveau gestiegen; die Lebensstandards ebenso – wohl ein Argument für Optimisten. Pessimisten können darauf hinweisen, dass sich nicht alles aus der Vergangenheit extrapolieren lässt: Wenn KI schon darauf pocht, eine ganz besondere Technologie zu sein, wieso sollte sie nicht auch besondere Effekte auf dem Arbeitsmarkt haben?

Gut zu wissen: “Optimisten” bezeichnen “Pessimisten” mitunter als Ludditen. Das bezieht sich auf eine Gruppe englischer Arbeiter im 19. Jahrhundert, benannt nach ihrem mutmaßlichen Anführer, welche aus Angst vor der Industriellen Revolution gezielt Maschinen zerstörten. Die Bewegung wurde nach einigen Jahren militärisch niedergeschlagen und viele ihrer Anhänger nach Australien deportiert. Technologieskeptizismus wird somit manchmal wenig schmeichelhaft als Luddismus bezeichnet.

AGI, ASI und die “Singularität”

Manch gegenwärtige Sorge über die Zukunft mag wortgleich zu den Sorgen der Vergangenheit sein, doch andere sind gänzlich neu – ja, regelrecht futuristisch. Künstliche Intelligenz könne eine existenzielle Gefahr für die Menschheit darstellen, so nicht nur Wahnsinnige, sondern auch renommierte Forscher wie Nick Bostrom und Eliezer Yudkowski oder der illustre Unternehmer Elon Musk (welcher sowohl über Tesla als auch OpenAI direkt mit KI zu tun hatte).

Das langfristige Ziel für viele Forscher im Bereich der KI sind nicht etwa kürzere Pizza-Lieferzeiten oder eine längere Netflix-Verweildauer, sondern die sogenannte Artificial General Intelligence (AGI). Bei ihr handelt es sich im Grunde um eine künstliche Intelligenz, deren Fähigkeit, domänenübergreifende Probleme zu lösen, selbstständig zu lernen und Gelerntes zu übertragen, in etwa auf dem Niveau eines Menschen läge. Wenn es um Intelligenz geht, wäre eine AGI also qualitativ nicht vom Menschen zu unterscheiden. Es ist nicht weniger als der heilige Gral der KI-Forschung – doch noch relativ weit entfernt: ChatGPT kann menschlichere Sprache ausspucken, als manch Mensch es kann; doch mit jeder anderen Kompetenz wäre es heillos überfordert: Es kann sein Wissen nicht übertragen, kann nicht abstrahieren; es ist in einer einzigen Domäne gefangen. Wer einen Beweis will, muss mit ChatGPT nicht gleich Autofahren gehen, sondern kann ja mal eine Schachpartie versuchen.

Die Implikationen einer AGI sind heutzutage unklar, wobei ihre Entstehung mit hoher Sicherheit zu den wichtigsten Momenten der Menschheitsgeschichte gehören würde und weitreichende Auswirkungen hätte. Einige Forscher, darunter die oben genannten, befürchten einen unkontrollierbaren, selbstverstärkenden Prozess: Eine AGI, welche so versatil und generalistisch wie ein Mensch “denken” kann, doch mit weitaus mehr Rechenkraft ausgestattet ist, könnte bedeutend schneller lernen – und zudem verstehen, wie sie ihre eigene “neuronale Architektur” augmentieren müsste, um noch intelligenter zu werden. Mit jedem Intelligenzsprung steigt das Potenzial, weitere Intelligenzsprünge herzustellen. Eine “Intelligenzexplosion” oder “Singularität“, so zwei Fachbegriffe, findet statt, bei welcher fast schlagartig eine Artificial Super Intelligence (ASI) – eine Superintelligenz – entstünde. Diese wäre Menschen kognitiv bedeutend überlegen und könnte wahlweise utopische Zustände herstellen (das hier ist wahrlich kein typisches whathappened-Explainerkapitel) oder eben zur existenziellen Gefahr geraten, wenn sie feindlich agieren sollte. Nicht, dass eine Maschine dazu per se einen Grund hätte – die Frage wäre, wie sie programmiert worden war. Doch dabei lässt sich nun einmal einiges falsch machen.

Gut zu wissen: Eine ASI würde Menschen nicht nur quantitativ, sondern auch qualitativ übertrumpfen. Beispiel: Würde ein Hundegehirn um das 1.000-fache verstärkt werden und somit 1.000 Hundejahre in wenigen Stunden denken können, wäre dieser Hund noch immer nicht kognitiv äquivalent zum Menschen, so der Mathematiker Vernon Vinge. Das soll veranschaulichen, wie wichtig die Gehirnarchitektur ist – und warum eine ASI der Menschheit deutlich überlegen wäre. 

Was für manch Leser nach skurrilem Futurismus klingt, nach Blogposts im merkwürdigen Teil des Internets, hält einige renommierte Forscher durchaus nachts wach. Wann der Durchbruch zur AGI gelingt – und ob er überhaupt gelingen kann -, ist nicht klar, doch sollte er erst einmal da sein, bliebe demnach nicht viel Zeit, bevor die Eskalation zur ASI stattfinden würde. Selbstverständlich weiß niemand, wie sich eine AGI verhalten oder entwickeln würde, geschweige denn eine hypothetische ASI – das erkennen auch Yudkowsky und Co. an. Ihnen geht es deswegen darum, frühzeitig Schutzmechanismen zu etablieren, welche ein unwahrscheinliches, doch eben katastrophales Ereignis abfedern könnten: Beim Design von KIs bewusst auf Transparenz und “freundliche” Einstellungen setzen, eine engmaschige Beobachtung der Aktivität von KI-Systemen und der Einbau von Eingrenzungsmechanismen, sprich eine Art Notfallbutton. Bislang laufen die Warner dem rasanten, dezentralen Fortschritt des Felds hinterher – wohl auch, weil ihre Warnungen eben sehr hypothetisch klingen.

Wie erwähnt ist allein der Zeitplan für eine AGI (welche futuristisch genug scheint, und dennoch ein gutes Stück weniger futuristisch als eine ASI) sehr unsicher. Eine Meta-Analyse durch die Datenplattform Our World in Data zu drei Studien, welche zwischen den Jahren 2018 und 2022 insgesamt 812 Experten befragt hatten, wann es mit 50 Prozent Wahrscheinlichkeit eine AGI gäbe, kommt auf ein Jahr in den 2060ern als Medianwert. Damit wäre eine “50-Prozent-AGI” noch etwa vierzig Jahre entfernt, was an die ewig-optimistischen Prognosen rund um Fusionsenergie erinnert, schließlich wird diese seit Jahrzehnten 30 Jahre in die Zukunft verortet. AGI fällt damit in die Kategorie “Irgendwann später, aber mit Sicherheit irgendwann“.

Gut zu wissen: Knapp 99 Prozent der Befragten in den drei Studien der Our World in Data Meta-Analyse waren sich sicher, dass es eine AGI eines Tages geben würde. Für 75 bis 90 Prozent ist der “50-Prozent-Moment” allerdings erst in 100 Jahren erreicht – was ein klein wenig nach Science-Fiction klingt.

Ein Fazit_ 

Zwischen Echos der Industriellen Revolution und apokalyptischen Superintelligenzen werden KIs in den kommenden Monaten und Jahren erst einmal viele andere Diskurse anstoßen. Chatbots und Co. werden der Öffentlichkeit beeindruckende Zaubertricks vorführen, während anderswo im Hintergrund – eine Schlagzeile und wieder vergessen – KI-Algorithmen mindestens genauso beeindruckende Innovationen hervorbringen und die Gegenwart Schritt für Schritt verändern. Erkaufen wird sich die Welt diese großartigen Potenziale mit gewichtigen Übeln, welche Antworten von Politik und Gesellschaft erfordern werden und allesamt eigene Explainer verdient hätten: Überwachungsstaaten auf Adrenalin dank modernster Gesichtserkennungstechnologien; Deepfakes, welche Persönlichkeitsrechte ins Lächerliche ziehen; moralische Dilemmas rund um letale autonome Waffensysteme; oder die Frage, was eigentlich noch Kunst ist. Bei aller Ungewissheit ist doch immerhin eines gewiss: Künstliche Intelligenz wird uns spannende Zeiten bescheren – und es fühlt sich so an, als wäre ihr nächster Winter weit entfernt.

Scroll to Top