Navigation

Hilfe, die Singularität kommt!

Oder: Warum mein intelligenter Staubsaugerroboter so schnell kein Bewusstsein entwickeln und die Weltherrschaft an sich reißen wird

Künstliche Intelligenz ist in den letzten Jahren zu einem unglaublichen Trend geworden – jedes Produkt, das etwas auf sich hält, muss jetzt irgendwie „smart“ sein und Machine Learning beinhalten. Das geht von Smart-TVs über digitale Assistenten bis hin zu Stromspar-Features in den neuesten Versionen von Handy-Betriebssystemen.

Und je tiefer sich die intelligente Software in unser Leben verankert, umso lauter werden die kritischen Stimmen, die vor dieser Software warnen, die wir nicht mehr verstehen. Hier soll es heute dabei um eine ganz besondere Form dieser Ängste gehen: Die Angst vor einer Superintelligenz wie sie zum Beispiel vom Futuristen Nick Bostrom beschrieben wird. Die Angst: „Künstliche Intelligenzen“ könnten schlauer sein als der Mensch und (mehr oder weniger bewusst) die Menschheit auslöschen.

Bevor wir jedoch diese Gedanken näher betrachten, möchte ich kurz erläutern, was es mit Machine Learning, bzw. im Deutschen Maschinellem Lernen, überhaupt auf sich hat.

Teil 1, in dem maschinelles Lernen kurz erklärt wird

Normalerweise werden Computer programmiert: Ein Software-Entwickler überlegt sich einen Algorithmus, eine Logik, auf welche Arten der Computer Eingaben verarbeiten muss, um zu bestimmten Ausgaben zu kommen. Ist die Aufgabe zum Beispiel, einen Schach-Computer zu entwickeln, so bestimmt der Algorithmus den exakten Ablauf, mit dem sich der optimale Zug bestimmen lässt. Ein Computer hat dabei den Vorteil, dass in in Sekundenbruchteilen alle möglichen Kombinationen virtuell ausprobieren kann – keine Chance für den Menschen. Kernaspekt also: Jemand hat sich vorher die einzelnen durchgeführten Schritte genau überlegt, sie sind verlässlich und nachprüfbar (abgesehen natürlich von Fehlern in Logik und Umsetzung).

Will man eine lernende Software entwickeln, funktioniert das anders. Je nach gewählten Verfahren zeigt man einem Computer einfach sehr viele Spiele zwischen guten Menschen, sodass es sich die Technik langsam aneignet, oder man lässt zwei Computer gegeneinander spielen, sodass sie aus ihren eigenen Fehlern lernen können – oder eine Mischung aus verschiedenen Techniken. Wichtig ist hier: Man weiß nicht so wirklich, warum ein Computer einen bestimmten Zug wählt. Es steht nirgends konkret, dass der gewählte Zug der beste ist; stattdessen hat der Computer irgendwie anscheinend „gelernt“, dass dieser oder jener Zug eine gute Idee sein könnte.

In vielen Stellen ist dieser Ansatz wesentlich besser, als sich konkret eine Herangehensweise für die „beste“ Lösung zu überlegen. Manche Situationen, wie zum Beispiel beim Brettspiel Go, sind zu komplex, um alle möglichen Ausgänge virtuell durchzuprobieren. Manche Dinge lassen sich auch schlicht nicht in einen vernünftigen Algorithmus packen – generell alles, bei dem man von „menschlicher Intuition“ spricht.

Um Maschinen lernen zu lassen, gibt es verschiedene Methoden, von denen ich drei in einem vergangenen Artikel bereits im Detail beschrieben habe Es gibt einfachere Methoden wie sogenannte Entscheidungsbäume, aktuell am vielversprechendsten scheinen jedoch die sogenannten künstlichen neuronalen Netze.

Die Idee dahinter ist, ein Konzept aus der Biologie nachzubauen: das Neuron, den zentralen Baustein des menschlichen Gehirns. Dabei werden natürlich ein paar Vereinfachungen gemacht. So sind die künstlichen Neuronen längst nicht so komplex verschaltet wie im menschlichen Gehirn, außerdem kann sich die grundsätzliche Anordnung der Verschaltung nicht verändern. Zudem wird eine Lern- bzw. Trainingsmethode verwendet, die mathematisch einfach umzusetzen ist und nicht unbedingt dem entspricht, was das Gehirn tut.

Trotzdem (oder vielleicht gerade deswegen) klappt das in vielen Bereichen sehr gut. In Sprach- und Schrifterkennung sind uns Maschinen inzwischen überlegen, inzwischen werden selbst automatisierte Übersetzungen mit neuronalen Netzen erstellt oder Texte auf diese Weise vorgelesen. Die Genauigkeit, mit der man Objekte in Bildern erkennen oder Stimmungen aus Texten herauslesen kann, steigt stetig. In vielen Bereichen können wir Menschen nicht mehr mithalten.

Teil 2, in dem es um schmale und generelle Intelligenz geht

Bereits recht früh hat sich Informatikern die Frage gestellt, was künstliche Intelligenz überhaupt bedeutet. Während es in den Anfängen der Forschung um künstliche Intelligenz jedoch eher um Fragen der technischen Umsetzung ging, hat sich die Diskussion auch immer mehr philosophischen Fragen zugewandt, je größer die Erfolge waren. Eine zentrale Definition aus diesem neuen Diskurs stammt von Ray Kurzweil, ebenfalls Futurist. Er unterscheidet zwei Arten von künstlicher Intelligenz:

Artificial Narrow Intelligence (ANI) ist künstliche Intelligenz, wie wir sie heute kennen – gut auf bestimmten Gebieten, aber nicht menschengleich.

Artificial General Intelligence (AGI, oft auch „starke KI“) beschreibt dann Software, die Intelligenz äquivalent zu der eines Menschen hat, die selbstständig Entscheidungen treffen und reflektieren kann, die ein Bewusstsein hat. War die Entwicklung von ANI noch das Ziel vergangener Dekaden, ist es nun AGI, der sich die Forschung widmen werde.

Der Gedankengang erscheint logisch: Nur wenn künstliche Intelligenz tatsächlich gleichwertig mit der menschlichen ist, können wir wirklich alle Probleme mit ihr lösen. Außerdem gibt uns das die Chance, die Vorgänge in unserem eigenen Gehirn besser zu verstehen. Warum es also nicht versuchen? Von der Rechenleistung her wären Computer schon soweit…

Teil 3, in dem die Singularität kommt

Leider ist das Erschaffen einer solchen Artificial General Intelligence nicht frei von Risiken. Um das zu sehen, reicht die folgende, einfache Schlussfolgerung: Wenn Menschen eine starke künstliche Intelligenz entwickelt haben, sind sie dazu ganz offensichtlich in der Lage. Eine menschengleiche künstliche Intelligenz ist entsprechend genauso dazu in der Lage, eine solche Intelligenz zu entwickeln, kann also quasi sofort an einer neuen, besseren Version ihrer selbst arbeiten. Diese neue Version, intelligenter als ihr Vorgänger, könnte dann ebenfalls einen besseren Nachfolger entwickeln – eine exponentielle Explosion der Intelligenz folgt. Diese neue Intelligenz nennt man dann Superintelligenz, die Intelligenzexplosion technologische Singularität.

Das oben kurz beschriebene Gedankenexperiment wird in der Regel in Form einer kleinen KI-Horrorgeschichte weiter ausgeschmückt: Ein Briefmarkensammler entwickelt eine künstliche (Super-)Intelligenz, die mit dem Internet verbunden ist und für ihn so viele Briefmarken wie möglich sammeln soll. Recht schnell stellt sich jedoch heraus, dass die Software möglicherweise nicht vorgesehene Wege geht, um das Ziel zu erreichen. Wozu Briefmarken kaufen, wenn ich die alten Besitzer überzeugen kann, mir die Briefmarken kostenlos zuzusenden? Warum sollte die Software nicht selbst eine Kette von Aktionen anstoßen, die dafür sorgen, dass mehr Briefmarken produziert werden, nur um das Ziel zu erreichen? Und irgendwann steht natürlich der Mensch im Weg, der kein ungebändigtes Interesse an endlos vielen Briefmarken hat und folglich beseitigt wird.

Ein Nebensatz aus einem Paper von Nick Bostrom wird zum Hauptinhalt eines „Papers“ von Nick Hay; die Idee wird von verschiedenen Stellen aufgegriffen und umformuliert, bis sie schließlich Teil von Videos deutscher YouTuber wird, die ihre Videos mit einem vielsagenden „… und seid achtsam“ beenden. Am besten wirft man noch ein bisschen Nano-Technologie in dieses Weltuntergangsszenario und fertig ist die als Gedankenexperiment getarnte Fabel.

Die Unausweichlichkeit dieser Entwicklung lässt sich auch noch wunderbar plausibilisieren:1 So hat etwa Google zwei selbstlernende Programme entwickelt, die in einer selbstentwickelten „Verschlüsselung“ kommunizieren können, die „so ausgeklügelt [ist], dass selbst die Google-Forscher nicht dahinter kamen, wie sie genau funktioniert.“ Klingt furchtbar fortgeschritten, ist aber im Grunde nur ein Fall von Security by Obscurity: Die Verschlüsselung ist nur so lange „gut“, wie ihr Verfahren geheim bleibt. Wenn ich zum Beispiel alle Buchstaben um zwei Felder weiterschiebe, also statt eines As ein C verwende, sieht das zunächst auch nach einer Verschlüsselung aus – bis jemand dahinter kommt, was ich genau gemacht habe. Kein Problem also, wenn man sich die Mühe macht, das herauszufinden. Die Google-Forscher haben das jedoch nicht versucht, weil das auch gar nicht das Ziel der Forschung war – spektakulär klingt die Meldung trotzdem.

Oder ein zweites Beispiel: Forscher von Google entwickeln ein lernendes Programm, das sein Wissen von vorherigen Aufgaben auf neue Probleme übertragen kann, also quasi „lernt wie ein Mensch“. Auch hier klingt es wieder so, als würden wir kurz vor dem Durchbruch bei starker künstlicher Intelligenz stehen – bis man merkt, dass die Forscher den simpelst-möglichen Weg genommen haben und statt beim Training mit Zufall anzufangen schlicht ein bestehendes neuronales Netz mit einem kleinen Satz an biologisch inspirierten Einschränkungen weitertrainiert haben.

Und ähnliches gilt auch für die Google KI, die ihre eigene Sprache entwickelt hat, oder das Experiment von Google (Warum ist es eigentlich immer Google?), in dem selbstlernende Systeme in eine gemeinsame simulierte Welt gesteckt wurden, um festzustellen, dass sie bei Ressourcenknappheit „gegeneinander kämpfen“ – klingt bombastisch, ist aber auf den zweiten Blick auch wieder weniger spektakulär.

Teil 4, in dem die Probleme beginnen

So einfach ist das also nicht mit der Superintelligenz. Schlimmer noch, vermehrt stellen Wissenschaftler fest, dass selbst die heutigen „einfachen“ neuronalen Netze zum Beispiel zur Bilderkennung wesentlich mehr Probleme haben als erwartet. Schon einzelne ungewöhnliche Dinge, wie ein Elefant, der in ein Foto von einem Wohnzimmer hinzugefügt wurde, können die Systeme komplett verwirren und dazu bringen, Dinge als etwas anderes oder gar nicht mehr zu erkennen.

Und das ist nur etwas, was schon ohne einen aktiven Widersacher funktioniert! Legt man es bewusst darauf an, kann man sogenannte Adversarial Examples konstruieren, die einen Menschen zwar nicht täuschen, neuronale Netze aber zu den absurdesten Entscheidungen führen können. Als Beispiel sei hier ein Team von MIT-Studenten genannt, die eine Schildkröte aus dem 3D-Drucker so gestaltet haben, dass sie vom Bilderkennungssystem aus verschiedenen Blickwinkeln stets für eine Schusswaffe gehalten wurde.

Wir sehen also: Wir sind weiter weg von einer Superintelligenz, als es bisweilen scheint, und haben noch nicht mal die „normale“, enge künstliche Intelligenz vernünftig im Griff. Im Großen und Ganzen gibt es auch wenig kommerzielles Interesse an einer vollen, starken künstlichen Intelligenz – wozu würde man die auch brauchen? Beispiel Google: KI ist hier im Einsatz bei Übersetzung, bei Foto-Filtern, bei Sprachausgabe, bei der Auswahl der passenden Werbung. Da wäre eine großartige Persönlichkeit der Software überflüssig und vielleicht sogar hinderlich.

Einzig digitale Assistenten und Chatbots könnten davon profitieren. Aktuell helfen hier noch Menschen, die alle möglichen Verläufe des Gesprächs von Hand modellieren müssen, und künstliche Intelligenz wird nur eingesetzt, um zu erkennen, welche der programmierten Regeln am ehesten zu dem Text passt, den der Nutzer in das Chatfeld eingegeben hat. Aber selbst hier ist es für die Betreiber der Bots eigentlich gar nicht erstrebenswert, eine echte Persönlichkeit mit eigener Meinung zu haben, wenn eigentlich nur möglichst effizient irgendwelche Kundenprobleme gelöst werden sollen.

Teil 5, in dem die Methode kritisiert wird

Ich möchte an dieser Stelle darauf hinweisen, dass ich nicht davon überzeugt bin, dass in den nächsten 25 Jahren eine starke künstliche Intelligenz entwickelt wird, auch wenn ich glaube, dass sich Nick Bostrom und Ray Kurzweil bei dieser und ähnlichen Zahlen viele Gedanken gemacht haben. Jedoch halte ich genau diese Gedanken und die Art, wie sie aufgefasst und weiterverbreitet werden, für Panikmache. Natürlich muss Wissenschaft irgendwo ansprechend sein und mit griffigen Titeln und Thesen die Menschen mitreißen.

Aber ich glaube zutiefst, dass es dazu gar nicht nötig ist, in irgendeiner Form zu übertreiben. Wissenschaft (und aus meiner Perspektive insbesondere Informatik) ist spannend, und gerade ich bin der letzte, der nicht mit Begeisterung erzählt, wie cool irgendetwas ist. Und eigentlich braucht man dafür keine Weltuntergangsszenarien oder Utopien. Leider sind gerade Medien aktuell im permanenten Kampf um Relevanz, Reichweite und Werbegelder auf jeden Klick angewiesen und gehen daher lieber den einfachen Weg. Und leider sind gerade Futuristen auch eher anfällig für etwas, was ich fast als Effekthascherei bezeichnen würde. Das wissen sie sogar selber, wie Nick Bostrom beispielsweise zugibt: „I think that a lot of reasons why there has not been more serious work in this area is that academics don’t want to be conflated with flaky, crackpot type of things. Futurists are a certain type.“

Auch ihre Verwendung des Gedankenexperiments als wissenschaftliche Methode wurmt mich. Grundsätzlich gibt es da ja nichts gegen einzuwenden, gerade auch in der Physik hat das Gedankenexperiment seine Relevanz. Hier jedoch wird es zu einer Fabel aufgeblasen, die nicht mehr einen Sachverhalt isoliert zu betrachten versucht, sondern eine ganze Reihe von Dingen zusammenwirft und dann Werturteile fällt. Im Idealfall wird der Text gleich „Paper“ genannt, um ihm noch einen wissenschaftlichen Anstrich zu verleihen, wie beispielsweise hier in einer Fabel wieder von Nick Bostrom über die Notwendigkeit von Forschung, um Menschen ewiges Leben zu geben. Ich finde das Ganze bisweilen unterhaltsam, aber in erster Linie irgendwie… plump.

Ich möchte an dieser Stelle nicht falsch verstanden werden: Sollte so etwas wie starke künstliche Intelligenz wirklich kommen (so unwahrscheinlich mir das aktuell scheint), könnte das natürlich schon ein Risiko sein. Aber man kann sich auch sinnvoll damit auseinandersetzen und die Problematik wissenschaftlich diskutieren, ohne gleich das Schicksal der Auslöschung der ganzen Menschheit daran zu hängen. Positiv kann man hier zwei Videos des YouTube-Channels Computerphile hervorheben, in der Rob Miles auf die Probleme eines Stop-Knopfes für künstliche Intelligenz eingeht – übrigens am konkreten Beispiel mit Hilfe eines simplen, neutralen Gedankenexperiments: Teil 1, Teil 2

Allerdings habe ich manchmal das Gefühl, dass die Angst vor einer starken künstlichen Intelligenz den Blick von den eigentlichen Problemen lenkt: Wir verstehen die Algorithmen, die unser Leben bestimmen, jetzt schon nicht, weil sie nicht transparent sind. Ich weiß nicht, warum Google manche Suchergebnisse für mich als relevanter einstuft als andere. Oder auf welcher Basis beispielsweise die Schufa über Kreditwürdigkeit entscheidet. Wir werden auch ohne Artificial General Intelligence schon von Computern beherrscht – und das wird in der Debatte gerne vergessen, weil sich die Futuristen, die vor AGI warnen, gleichzeitig bei den sozialen Auswirkungen und Fragen der Privatsphäre eher zurückhalten und schweigen.

Teil 6, in dem ein Fazit gezogen wird

Was also tun? Ich persönlich halte es da mit dem Standard-Nachschlagewerk für Kenntnisse und Weisheiten aller Art, dem Reiseführer Per Anhalter durch die Galaxis: „Don’t Panic“. Denn eines ist sicher: Die Menschheit macht zwar große wissenschaftliche und technologische Fortschritte, und das in einem noch vor wenigen Jahrhunderten unvorstellbarem Tempo. Aber bis wir wirklich Software mit menschengleicher oder schlimmer übermenschlicher Superintelligenz entwickeln und sich mein intelligenter Staubsaugerroboter aufschwingt, die Weltherrschaft an sich zu reißen, wird es noch ein bisschen dauern.


  1. Ich verwende hier bewusst populärwissenschaftliche Quellen, um zu verdeutlichen, wie die wissenschaftlichen Erkenntnisse dargestellt werden.

Titelbild: Florian Weihmann (CC 0)
Ebenfalls erschienen im Neologismus 18-09

Mehr lesen