KI und die Grenzen menschlicher Intelligenz

Der Film Ex Machina hat mich umgehauen, und vielen anderen Zuschauern ging es da ganz ähnlich. Das abstrakte Thema der künstlichen Intelligenz wird darin greifbar, verliert den Sciencefiction-Charakter. Man versteht, warum Stephen Hawking, Bill Gates, Elon Musk und andere davor warnen. Google, Facebook, IBM und Intel müssten sich nur verbünden, so denkt man, schon wäre künstliche Intelligenz Realität: „Das wird das größte Ereignis in der Geschichte der Menschheit werden – und möglicherweise auch das letzte“ [Stephen Hawking].

Auf Wikipedia wird künstliche Intelligenz wie folgt definiert1:

Der Begriff ist insofern nicht eindeutig abgrenzbar, da es bereits an einer genauen Definition von Intelligenz mangelt. […] [Es bezeichnet] den Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass dieser eigenständig Probleme bearbeiten kann.

Alan Turing, ein britischer Mathematiker, der die Enigma entschlüsselte, schloss vorgetäuschte – also simulierte – Intelligenz mit ein. Ich finde, dass die Definition dadurch ein wenig schwammig wird, denn Menschen zu täuschen ist nicht so schwer.

Für diesen Artikel möchte ich die folgende Definition verwenden [nach 2]:

Intelligenz ist die Fähigkeit, Probleme selbstständig zu lösen. Umso mehr Freiheitsgrade zur Verfügung stehen, umso selbstständiger ist sie dabei. Umso komplexer die Probleme sind, die gelöst werden können, umso höher ist sie.

Man kann nun einwenden, dass Maschinen schon ziemlich gut darin sind, Probleme zu verstehen und zu lösen: Siri kann längst Befehle des Menschen entgegennehmen und selbstständig umsetzen. Roboter können Bewegungsabläufe lernen und diese zum Lösen von Aufgaben einsetzen. Künstliche Intelligenz hat in der Praxis schon ein beeindruckendes Level erreicht und ist schon heute in unterschiedlichen Bereichen recht nützlich. Wenn vor künstlicher Intelligenz gewarnt wird, dann ist meist ein höheres Niveau gemeint, genauer gesagt der Zeitpunkt, ab dem die Intelligenz der Maschinen die der Menschen übersteigt. Man nennt dies das Erreichen technologischer Singularität.

Als Alan Turing den Computer als Konzept erdachte, war dieser praktisch noch gar nicht umsetzbar – dazu brauchte es die Erfindung der Transistoren. Damit konnten elektronische Computer komplexe Berechnungen für die Menschen selbstständig durchführen. Auch für das Ausführen von Algorithmen – einer der ersten war Euklids Algorithmus zur Berechnung größter gemeinsamer Teiler 300 Jahre v. Chr.2 – eigneten sie sich. Bei der Rechenleistung von Transistoren sowie bei der rudimentären Simulation des Gehirns durch Algorithmen gab es in den letzten Jahrzehnten atemberaubende Fortschritte. Technische Singularität wird eintreten – das ist die Befürchtung – wenn sich dieser Fortschritt fortsetzt. Simulation des Gehirns plus Moore’s Law ergibt unendliche Intelligenz inklusive virtuellem Bewusstsein, so rechnet man3.

Meiner Meinung nach gibt es drei Argumente, die dieser Erwartung widersprechen: Weder verstehen wir das Gehirn ausreichend, um es zu simulieren, noch ist es sicher, dass das Moore’s Law länger einzuhalten ist. Zudem wiederholt sich hier ein Muster in der Selbstüberschätzung der Menschen nach Innovationen. Auf diese Argumente möchte ich im Folgenden genauer eingehen.

Die Menschen wissen zu wenig über die Funktionsweise des Gehirns, um es zu simulieren

Man sagt, das menschliche Gehirn sei komplexer als unser Universum. Wenn man bedenkt, wie wenig wir über das Universum wissen – ziemlich viel über 5% und kaum etwas über die restlichen 95% – so gibt es einen Eindruck über unser Verständnis des Gehirns. Bunte Bilder aus dem MRT, die aktive Bereiche des Gehirns darstellen, täuschen dem Betrachter vor, in das Gehirn zu blicken und es lesen zu können. Tatsächlich ist das Gehirn und seine Funktionsweise immer noch ein großes Rätsel.

Bisher konnte nur das Gehirn eines einzigen Tieres vollständig kartiert werden: des durchsichtigen Wurms C. elegans mit seinen 302 Neuronen. Das menschliche Gehirn hingegen besitzt 86 Milliarden. Diese zu kartieren wird – trotz Einsatz von Deep-Learning-Methoden – noch einige Jahrzehnte, vielleicht auch Jahrhunderte dauern4. Von der Karte zum Verständnis ist es dann immer noch ein weiter Weg. „Die Verbindungen von Nervenzellen, die unsere Intelligenz ausmachen, sind – mit den heute verfügbaren Methoden – nicht berechenbar“, sagt Professor Kirchner [1].

Währenddessen versucht man, das Gehirn aus einer anderen Richtung zu entschlüsseln. Seit dem Jahr 1943 bilden Forscher die Funktionsweise von Nervenzellen im Gehirn in Algorithmen ab. Alan Turing beschrieb 1948 die theoretischen Grundlagen [1]. Wie im Gehirn werden in mehreren Schritten unterschiedliche Merkmalsschichten (z.B. erst die Kanten in einem Foto, anschließend die Farben etc.) betrachtet. In aufwendigen mathematischen Kalkulationen werden tausende interagierende „Neuronen“ abgebildet. Jedes „Neuron“ besitzt einen Schwellwert. Wird dieser überschritten, so „feuert“ es wie ein echtes Neuron und überträgt die Informationen weiter5. Vor allem für die Einteilung von Fotos in Kategorien sind neuronale Netzwerke hervorragend geeignet. Aufgrund verschiedener Limitierungen war dies lange Zeit auf eine Merkmalsschicht begrenzt. In den 80er Jahren gab es bereits einen Hype um neuronale Netzwerke, der noch größer war, als der heutige6. Als im Jahr 2006 kanadische Forscher um Professor Geoffrey Hinton einen Trainingsalgorithmus vorstellten, der anders als neuronale Netze mit schichtweisen Merkmalstransformationen lernt, löste dies neue Euphorie aus7. Mittlerweile haben Anwendungen aus diesem Bereich (Deep Learning) den Beta-Status verlassen und werden in vielen Produkten eingesetzt, zum Beispiel in Sprach- und Bilderkennung, bald auch in selbstfahrenden Autos. Die Rechenoperationen sind dabei sehr aufwendig – da trifft es sich gut, dass die Prozessoren erprobt in Grafikkarten für diese Aufgabe gut geeignet sind. Anstelle von Wenn-Dann-Logiken werden die zu optimierenden Szenarien modelliert und anschließend trainiert. Die Verarbeitung vieler Dimensionen stellt dabei immer noch ein Problem dar, denn mit jeder weiteren Dimensionen steigt die Komplexität exponentiell an (Fluch der Dimensionen).

Das Wissen über das Gehirn und die exponentielle Komplexität bei der Berechnung neuronaler Netzwerke stellen große Hindernisse bei der Simulation des menschlichen Gehirns dar.

Moore’s Law gerät an seine Grenzen

William B. Shockley stieß mit der Erfindung von Transistoren großartige Entwicklungen an. Vor allem das Unternehmen Intel treibt die Entwicklung seit Jahrzehnten weiter und ermöglicht den technischen Fortschritt, an den wir uns längst gewöhnt haben. Der Mitgründer Gordon E. Moore prägte Moore’s Law, dem zufolge sich die Rechenleistung alle zwei Jahre bei konstanten Kosten verdoppelt.

Chips werden im Photolithographie-Verfahren hergestellt. Die Entwickler bei Intel ringen dabei mit den Gesetzen der Physik. Ihren Erfolgen ist es zu verdanken, dass Moore’s Law statt den ursprünglich erwarteten 10 Jahre nun seit 60 Jahren seine Gültigkeit nicht verloren hat. Doch so langsam scheinen die Grenzen der Physik mit diesem Verfahren erreicht: Transistoren sind mittlerweile kleiner als die Wellenlänge von Licht8. In den letzten Jahren wurden die Zeiträume zwischen zwei Chip-Generationen länger und die Kosten pro Transistor stagnieren9.

Alle Prognosen zur künstlichen Intelligenz beruhen auf Moore’s Law, dessen weitere Einhaltung nicht gesichert ist. Ein Technologiesprung ist derzeit nicht abzusehen. Quantencomputer könnten einen solchen erzielen, da sie nicht mit den Gesetzte der klassischen Physik, sondern der quantenmechanischer Zustände arbeiten10. Von einer Praxistauglichkeit sind sie jedoch noch viele Jahrzehnte entfernt. Nehmen wir einmal an, die Beschleunigung der Prozessoren ließe sich weiter fortsetzen: Nach Professor Kirchner der Universität Bremen [1] entsteht künstliche Intelligenz nicht durch pure Rechenleistung und Big Data. Bisher sind intelligente Systeme auf genau spezifizierte Tätigkeiten zugeschnitten. Während sie sich in diesen auszeichnen – und die besten Schachspieler schlagen – scheitert der selbe Algorithmus an trivialen Aufgaben. Selbst wenn sich das Moore’sche Gesetz weiter erfüllen ließe, würde das nur bedeuten, dass Computer schneller stupide Antworten ausspucken (Prof. Stuart Russell) [3]. Es scheint noch das wichtigste Puzzleteil zu fehlen.

Die Grenzen menschlicher Intelligenz

Aus den vielen großartigen Leistungen der Menschen treten manche als besonders einflussreich hervor. Für mich persönlich zählen dazu:

  • Entwicklung von Transistoren (1947)
  • Landung auf dem Mond (1969)
  • Visualisierung von Körperquerschnitten durch Röntgenstrahlen (1895) und MRTs (1971)
  • Sequenzierung der menschlichen DNA (2001, bzw. 2003)

Bei all diesen Errungenschaften waren im Vorfeld und bei der Umsetzung große Hoffnungen geweckt worden. Man sagte die zügige Bevölkerung des Weltraums, das Lesen von Gedanken und das Heilen schlimmster Krankheiten vorher. Rückblickend muss man sagen, dass – wenngleich die Leistungen nicht minder beeindrucken – die erwarteten Quantensprünge ausblieben.

Bei der Mondlandung ist die Diskrepanz zwischen Erwartung und Wirklichkeit besonders anschaulich. Die Landung auf dem durchschnittlich 384.400 km von der Erde entfernten Mond beflügelte die Phantasie der Menschen. Sie sahen die Bevölkerung anderer Planeten kommen. Retrospektiv betrachtet stellte dies eher einen Höhepunkt in der Weltraumforschung dar, als den Startschuss größerer Bestrebungen. Insgesamt waren bisher zwölf Menschen auf dem Mond, der letzte im Jahr 1972. Derzeit meistern wir die Versorgung von neun Menschen auf der ISS nicht ganz reibungslos – und sie befindet sich ca. 400 km von der Erde entfernt.

Ich denke, dass der Mensch, berauscht von den aufgezählten und weiteren kollektiven Leistungen, seine schöpferischen Fähigkeiten überschätzt. Jede davon lässt sich nach den Kriterien beurteilen, ob etwas entdeckt oder erschaffen wurde. Meiner Meinung nach wurden in den meisten Erfindungen zuerst physikalische Effekte entdeckt und dann für eine bestimmte Anwendung nutzbar gemacht. Die Erfindung besteht folglich nur in einem geringen Maße aus einem menschengeschaffenen Anteil und mehr aus einem menschenentdeckten/ genutzten Anteil. Ein großer Teil des Erfolgs liegt also nicht in der schöpferischen Leistung des Menschen, sondern in den „Werkzeugen“, die ihm zur Verfügung stehen. Dies zu ignorieren führt zu Selbstüberschätzung.

Vielleicht ist die Mathematik die einzige 100-prozentige Schöpfung der Menschheit. Sie ermöglicht dem Menschen, die Komplexität der Umwelt zu verstehen und zu entschlüsseln. Wäre der Mensch intelligenter, bräuchte er für das Verständnis der Zusammenhänge keine Mathematik11. Alan Turing brachte die Mathematik mit der Mechanik zusammen und entwickelte die Architektur heutiger Computer12. Auf den Computern spielt sich nun eine ausschließlich vom Menschen erschaffene Welt ab. Basierend auf Mathematik können durch Algorithmen einzelne Aspekte unserer Realität abgebildet werden. Kurt Gödel, ein Mathematiker und Freund Einsteins, konnte in seiner Habilitationsschrift die Unvollständigkeit der Mathematik beweisen und zog daraus auch folgende Konsequenz: „Wenn es keine absolut unlösbaren Probleme in der Mathematik gibt und sie unerschöpflich ist, kann der menschliche Verstand seine gesamte mathematische Intuition alogirthmisch nicht ausformulieren – und damit kann er sie nicht vollständig in ein Maschinenprogramm übersetzen“ [5]. Algorithmen als Werkzeuge sind nicht geeignet, die Komplexität eines Bewusstseins zu erzeugen.

Es stimmt, es gibt sehr beeindruckende Algorithmen, vor allem im Bereich Deep Learning. Bei genauerer Betrachtung relativieren sich diese Erfolge: Zum Beispiel programmierte man einen Algorithmus, der lernt, Level in unbekannten Computerspielen zu meistern – und nach einer gewissen Lernzeit gelingt ihm genau das. Soll dieser Algorithmus anschließend eine andere Aufgabe ausführen, scheitert er kläglich. Der Grund: Die Programmierer haben ihn genau auf bestimmte Anwendungsbereiche zugeschnitten und damit sind ihm fundamentale Grenzen gesetzt. In diesem Zusammenhang finde ich Conway’s Law sehr interessant. Es besagt, wenn eine Organisation ein System gestaltet, wird es unweigerlich eine Struktur verwenden, die eine Kopie der Kommunikationsstruktur der Organisation ist. Beispielsweise würde das Design einer Boing 747 die Organisationsstruktur von Boing und seinen Zulieferbetrieben zu dieser Zeit abbilden [4]13. Analog dazu gibt der Programmierer durch sein Vorgehen bei der Modellierung der künstlichen Intelligenz eine Struktur, die sie begrenzt.

TLDR

Die Menschen werden wahrscheinlich keine technologische Singularität erreichen, da sie ihr Gehirn nicht verstehen, Moore’s Law nicht unendlich gilt und die schöpferischen Fähigkeiten des Menschen sehr begrenzt sind.

Optimistischer betrachtet, braucht es viele profunde Ideen, um eine technologische Singularität zu erreichen [4]. Nach einigen Einsteins, die in den nächsten Jahrhunderten aufwachsen und sich diesem Thema gewidmet haben werden, könnte sich die Entwicklung künstlicher Intelligenz verselbstständigen und explodieren. Auch wenn ich das für unwahrscheinlich halte, kann es trotzdem nicht schaden, an die Konsequenzen zu denken.

Diese Konsequenzen könnten verheerend sein, wenn es bei der Kommunikation von Zielvorgaben der Menschen an den Computer zu Missverständnissen kommt. Da Menschen einen Wertekatalog besitzen, auf dessen Grundlage Aufgabenstellungen interpretiert werden, fällt es ihnen schwer, eindeutige Handlungsanweisungen zu kommunizieren. Einem Computer müssen allerdings alle Variablen des Optimierungsproblems mitgeteilt werden, da diese sonst ins Extreme gesetzt werden könnten. Die Kommunikation zwischen Mensch und Computer unterscheidet sich deshalb fundamental von der zwischen Mensch und Mensch. Neben den auftretenden Missverständnissen durch die Kommunikation stellt die Risikobewertung der künstlichen Intelligenz bei der Zielerreichung eine Gefahr dar. Die künstliche Intelligenz ist dem erfolgreichen Ausführen einer Aufgabe verschrieben und nimmt deshalb alle Möglichkeiten zu Versagen sehr ernst. Einen Risikofaktor stellt der Mensch dar, wenn er versucht, das System abzuschalten. Dies wird folglich in höchster Priorität verhindert. Aus beiden Gründen wäre es deshalb wichtig, wohltätiges (beneficial) Handeln gegenüber allen Menschen als Konzept frühzeitig in die Entwicklung künstlicher Intelligenz zu integrieren [3]. Von diesen gemeinsamen Werten werden wir selbst dann profitieren, wenn es nicht zu einer technologischen Singularität kommt. Denn Kommunikationsprobleme zwischen Menschen und Computern gibt es schon heute.

Viele Maschinen sind längst intelligent und diese Intelligenz wird stetig zunehmen. Das wird für Nutzer von Technik zu weiteren Annehmlichkeiten führen: Organisationsaufgaben können von der Software übernommen werden, Benutzeroberflächen vereinfacht werden, wenn die Software beabsichtigte Interaktionen erahnt [4]. Maschine Learning Algorithmen werden für uns Muster in Datenhaufen aufspüren, und vieles mehr. Bis dahin lasse ich mich von Videos unterhalten:

25.10.2015: 1. Version
20.12.2015: Kleinere Verbesserungen

Quellen

  • [1] Kunsthirn dämmert SZ 28.02.2015
  • [2] http://www.siemens.com/innovation/en/home/pictures-of-the-future/digitalization-and-software/digital-assistants-interview-klaus-mainzer.html
  • [3] https://m.youtube.com/watch?v=GYQrNfSmQ0M
  • [4] http://neuralnetworksanddeeplearning.com/chap6.html
  • [5] Ist der Mensch mehr als sein Gehirn? von Eva-Maria Engeren, Die Zeit 01.10.2014

  1. https://de.wikipedia.org/wiki/Künstliche_Intelligenz 

  2. https://de.wikipedia.org/wiki/Euklidischer_Algorithmus 

  3. Hello Internet Podcast, Folge 42 

  4. http://www.nytimes.com/2015/10/11/opinion/sunday/will-you-ever-be-able-to-upload-your-brain.html, http://www.nytimes.com/2015/01/11/magazine/sebastian-seungs-quest-to-map-the-human-brain.html 

  5. http://www.slate.com/articles/technology/bitwise/2015/09/pedro_domingos_master_algorithm_how_machine_learning_is_reshaping_how_we.single.html 

  6. http://research.microsoft.com/pubs/219984/DeepLearningBook_RefsByLastFirstNames.pdf 

  7. http://www.golem.de/news/deep-learning-maschinen-die-wie-menschen-lernen-1510-116468.html 

  8. http://www.nytimes.com/2015/09/27/technology/smaller-faster-cheaper-over-the-future-of-computer-chips.html 

  9. http://www.nytimes.com/2015/09/27/technology/smaller-faster-cheaper-over-the-future-of-computer-chips.html 

  10. https://de.wikipedia.org/wiki/Quantencomputer 

  11. Leonardo da Vinci ist dafür ein gutes Beispiel: Er scheiterte zwar bei der Durchführung einfacher Division, wird wegen seinem Verständnis von u.a. Strömung als Urvater der Mechanik bezeichnet. 

  12. auch von Neumann 

  13. https://de.wikipedia.org/wiki/Gesetz_von_Conway