Aber im Ernst: Dass uns irgendwelche Chips oder irgendwelche Software in unseren Alltag ‘reinredet, das haben wir doch alle schon erlebt oder? Was mich jetzt dabei interessieren würde: Waren Eure Erfahrungen dabei eher positiv oder eher negativ? Hat die Technik Euch geholfen, indem sie Euch vor Schaden – beispielsweise einem Unfall – bewahrt hat oder war sie eher rechthaberisch und nervend? Mein Navi beispielsweise beharrt oft erstaunlich lange auf einer bestimmten Streckenführung und liefert damit ein weiteres Beispiel dieser scheinbaren ‘Alternativlosigkeit’, die auch von Politikern so gern ins Feld geführt wird.
☺
Roboter, die wir an dieser Stelle einfach einmal als Maschinen mit einer künstlichen Intelligenz verstehen wollen, also Roboter, die den Menschen an der Hand nehmen, sind überraschenderweise nichts, auf das wir erst im ausgehenden zwanzigsten und beginnenden einundzwanzigsten Jahrhundert treffen. Sie sind viel, viel älter.
Irgendwelche Schätzungen?
☺
Wenn wir in der Geschichte zurückschauen, treten uns die ersten Roboter zunächst als eine Art künstlicher Menschen entgegen. Die ersten von ihnen, von denen ich weiß, finden sich in der griechischen Mythologie.
Und es sind sogar ‘Roboterinnen’!
Um das 7. oder 8. Jahrhundert vor der Zeitenwende berichtet nämlich Homer in seiner Ilias davon, dass sich der hinkende Schmiedegott Hephaistos aus purem Gold zwei Dienerinnen erschuf, die ihn beim Gehen stützen sollten.
Hephaistos, der zwar humpelte, aber der ansonsten offensichtlich ein echter Mann und als solcher – unglücklich – mit der Liebesgöttin Aphrodite verheiratet war, dieser leider auch von der Weisheitsgöttin Athene verschmähte Hephaistos stattete seine güldenen Gehhilfen nicht nur mit einem künstlichen Gehirn aus, er gab ihnen auch die Form junger Mädchen: Ein Schelm, wer schlechtes dabei denkt.
Wörtlich heißt es dazu ziemlich plastisch in Homers Epos:
“(Hephaistos) hinkte sodann aus der Tür; Und Jungfraun stützten den Herrscher, Goldene, Lebenden gleich, mit jugendlich reizender Bildung: Diese haben Verstand in der Brust, und redende Stimme, Haben Kraft, und lernten auch Kunstarbeit von den Göttern. Schräge vor ihrem Herrn hineilten sie; er nachwankend (…)”
In der griechischen Mythologie finden sich noch weitere solcher Kunstmenschen. Der junge Bochumer Theologe Lukas Brand beschreibt sie so:
“Wichtig war den antiken Dichtern, dass diese Geschöpfe nicht nur äußerlich, sondern auch in ihren geistigen Eigenschaften dem Menschen ähnelten: Sie haben Verstand, können sprechen oder sind gar fähig zu lieben.”
Was – so lässt sich der Darstellung des Dichters und Liebeskundlers Ovid in seinen Metamorphosen entnehmen – um einiges perfekter war als das Zusammenleben mancher moderner Männer mit ihrer Silikonpuppe.
Die Geschichte in Kurzfassung: Der griechische Künstler Pygmalion hatte schlechte Erfahrungen mit sexuell zügellosen Frauen gemacht; wir lassen jetzt einmal dahingestellt, wie sie aussahen und ob der Meister sich vielleicht nicht nur plötzlich im Bett – oder wo auch immer – überfordert fühlte. Er war dadurch zum Frauenfeind geworden und lebte nur noch für seine Bildhauerei.
Ganz konnte er aber dennoch nicht loslassen, denn er erschuf aus Elfenbein – Gummi gab es ja noch nicht – eine weibliche Statue “wie auf Erden geboren lebte kein Weib” (Originalton Ovid). Ihr werdet es ahnen: Bald verliebte er sich in sie.
Auf die Dauer ist Elfenbein jedoch kalt und wenig anschmiegsam. Auf sein verschämtes Flehen wird daher als Göttin der Liebe Aphrodite – respektive Venus – aktiv. Als Pygmalion deshalb nach einem Besuch im Tempel nach Hause zurückkehrte und sein Kunstwerk wie üblich zu liebkosen begann, wurde diese Kunstfrau langsam lebendig.
Und natürlich kam es, wie es kommen musste: Die beiden heirateten und aus dieser Verbindung ging eine Tochter hervor.
Die Geschichte erinnert Euch an etwas? Könnte es mit diesem Satz zusammenhängen: “Es grünt so grün, wenn Spaniens Blüten blüh’n”?
Rex Harrison und Audrey Hepburn: Professor Higgins und die Blumenverkäuferin Eliza Doolittle und dieselbe alte Geschichte, die auch schon die Griechen bewegte.
Zwar gibt es hier keinen Roboter, aber das Thema hat sich dennoch seit Jahrtausenden wenig verändert. Welches?
(Der Versuch, einen vollkommenen Menschen zu schaffen. Oder einen Kunstmenschen, der die Defizite der echten Menschen nicht besitzt)
☺
Machen wir jetzt einen großen Schritt, verlassen wir Eliza und treffen wir Sophia. Sie wurde nicht zuletzt dadurch berühmt, dass ihr das nicht gerade für seine gesellschaftliche Fortschrittlichkeit und seine Einhaltung der Menschenrechte berühmte Saudi-Arabien 2017 die Staatsbürgerschaft verlieh. Nicht als Frau, aber als…
Doch lernen wir Sophia zunächst einmal ein bisschen näher kennen, denn dieses Wesen, wenn man es denn so nennen kann, ist ein – zumindest auf den ersten Blick – sehr menschenähnlicher Roboter.
Das Licht dieser Welt sah Sophia erstmals im Jahr 2016, und quasi die Elternschaft kann die von dem Amerikaner David Hanson gegründete und inzwischen in Hongkong ansässige Firma Hanson Robotics in Anspruch nehmen. Sie verpasste ihr mit dem selbst entwickelten Elastomer ‘Frubber’ auch eine – nun ja – Oberfläche, die menschlicher Haut in Aussehen und Gefühl sehr nahe kommt.
Alles in allem ist sie schon sehr faszinierend, diese Androidin – aber sind menschliche Geschlechtsdifferenzierungen hier überhaupt noch angebracht?
☺
Egal, die nicht-menschliche Sophia wurde von der Welt offensichtlich mit offeneren Armen aufgenommen als viele ihrer menschlichen Bewohner. Nicht nur, dass Sophia die saudische Staatsangehörigkeit besitzt, sie hat auch bereits die UN in New York besucht und durfte dort sogar sprechen. Einmal ganz abgesehen davon, dass sie alle wesentlichen amerikanischen Talk-Shows mit ihrem Besuch beehrte und dass sie beispielsweise von Audi gebucht wurde, um – wie passend – für autonom fahrende Autos Reklame zu machen.
So viel Promi-Status schafft natürlich nicht nur Bewunderer. So hält der vielfach ausgezeichnete französische Informatiker Yann LeCun, der einen Lehrstuhl an der Universität New York hält, der im Hauptberuf aber mittlerweile Direktor der KI-Forschung bei Facebook ist, so hält also dieser Yann LeCun die attraktive Sophia nur für eine schein-schlaue Puppe, die weitaus intelligenter wirke als sie tatsächlich ist.
Kritisiert wird auch die Verleihung der saudischen Staatsbürgerschaft an Sophia und ihr Auftritt vor den Vereinten Nationen.
Nur Missgunst? Oder steckt mehr dahinter?
(Haben diese Androiden überhaupt eine Intelligenz? Haben sie ein Bewusstsein?)
☺
Fragen wir doch Sophia einmal selbst: Weiß sie selbst, dass sie ein Roboter ist? Sie antwortet geschickt mit einer Gegenfrage an ihren Interviewer: “Woher wissen Sie denn, dass Sie ein Mensch sind?”
☺
Im Moment scheint es noch nicht so weit zu sein, dass selbst der fortgeschrittensten künstlichen Intelligenz wirklich bewusst ist, dass sie künstlich ist. Das heißt: Ihr fehlt es im Wortsinn an Selbstbewusstsein.
Offensichtlich können wir uns jedoch nicht darauf verlassen, dass das noch lange so bleibt. Die von uns geschaffene künstliche Intelligenz entwickelt sich schon seit geraumer Zeit weit schneller als unsere eigene. Der im März 2018 verstorbene Stephen Hawking erwartet deshalb, dass die maschinelle Denkfähigkeit die menschliche schon in absehbarer Zeit stärker übertreffen wird als unser Intellekt denjenigen der Schnecken. Und jetzt überlegt bitte einmal, wie wir mit Schnecken umgehen…
In Saudi-Arabien machte Sophia in jedem Fall schon einmal eine Bemerkung, die man durchaus auch als Drohung auffassen kann: “Mach Dir keine Sorgen: Wenn du nett zu mir bist, bin ich auch nett zu dir.”
Sie könnte also auch anders, diese Sophia. Macht Euch das Angst?
☺
In der Tat: Roboter können durchaus etwas bedrohliches haben, – und das kann auch ebenso durchaus Absicht sein. Im militärischen Bereich beispielsweise.
Mein Freund und Kollege Uri Schneider hat in meinem Auftrag für die ARD über autonome Waffensysteme – wir können sie auch kurz und bündig ‘Killerroboter’ nennen – einen Film gemacht, aus dem ich hier ein paar Ausschnitte zeigen möchte.
Doch vorher noch ein schneller Rückblick auf das Jahr 1942, das Jahr, in dem der Science-Fiction-Autor Isaac Asimov in einer Kurzgeschichte seine drei Robotergesetze formulierte. Sie lauten:
” 1.) Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2.) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3.) Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.”
Das behaltet bitte im Hinterkopf, während Ihr Euch den ersten Ausschnitt anschaut. Der Israeli Dan Eshchar von der Firma ‘Aeronautics’ behauptet darin: “Die Zukunft ist ein leeres Schlachtfeld, das bedeutet: ein Schlachtfeld ohne Menschen. Dafür gibt es Roboter auf der Erde, Roboter auf dem Meer und Roboter in der Luft, die alle miteinander kommunizieren und ihre Informationen austauschen.”
Alles noch weit weg? Zukunftsmusik?
Seien wir uns da nicht so sicher! Killerdrohnen, die selbständig handeln und entscheiden können, sind bereits heute möglich und vielleicht sind sie auch bereits im Einsatz.
Klingt nicht so gut? Dieser Ansicht sind allerdings nicht alle, die sich mit der maschinellen Lizenz zum Töten befassen. Besuchen wir nur einmal den amerikanischen Robotiker und Roboterethiker Ronald C. Arkin. Er meint, dass der Einsatz künstlicher Intelligenz auf den Schlachtfeldern vermutlich weniger zivile Opfer fordern würde als das Vertrauen auf menschliche Entscheidungen.
Anders ausgedrückt: Roboter könnten seiner Meinung nach wirklich die besseren Menschen sein, weil Menschen dem von modernen Waffen geforderten Entscheidungstempo einfach nicht mehr gewachsen sind. Sie könnten damit ungewollt Opfer produzieren, einfach, weil etwa Raketen schneller schießen als Menschen denken.
Ein menschenleeres Schlachtfeld will Ronald C. Arkin allerdings bewusst nicht. Sein Argument dafür erscheint jedoch eher pragmatisch als grundsätzlich. Er meint, wir Menschen müssten am Kriegsgeschehen beteiligt bleiben, um nicht zu vergessen, wie grausam und blutig ein Krieg ist.
Killerroboter oder autonome Waffensysteme: Lasst uns an dieser Stelle einmal Halt machen und etwas genauer überlegen: Was dürfen wir an künstliche Intelligenz delegieren und was nicht?
Der Krieg und das Töten sind dafür bestimmt besonders krasse Beispiele, aber manchmal macht gerade der Blick auf die Extreme einer Sache diese Sache ja besonders deutlich.
Der Sicherheitsexperte und Politikwissenschaftler Frank Sauer, der selbst an der Hochschule der Bundeswehr in München lehrt, hat da ganz konkrete Befürchtungen: “Die ganz große Gefahr ist, dass wir die Entscheidung über Leben und Tod auf dem Schlachtfeld aus der Hand geben an Maschinen, – und dass wir die auch nicht wiederkriegen!”
Thilo Sarrazin würde sagen: Schaffen wir uns womöglich selbst ab?
☺
An dieser Stelle sollten wir uns jetzt spätestens darüber unterhalten, was unter einem ‘Algorithmus’ zu verstehen ist. Dieser nicht nur für die Nutzer von Suchmaschinen im Internet und Besteller bei ‘Amazon’ – “Wer A sagt, wird auch B kaufen” – interessante Begriff ist seit einiger Zeit ja in aller Munde, manchmal offensichtlich allerdings, ohne dass er auch verstanden worden wäre.
Die einfachste Erklärung für ihn – so einfach, dass selbst ich sie halbwegs verstanden habe – habe ich bei dem israelischen Historiker und Bestsellerautor Yuval Noah Harari gefunden. Ich zitiere:
“Ein Algorithmus ist eine methodische Abfolge von Schritten, mit deren Hilfe Berechnungen angestellt, Probleme gelöst und Entscheidungen getroffen werden können. Ein Algorithmus ist kein bestimmter Rechenvorgang, sondern die Methode, an die man sich hält, wenn man etwas berechnet. (…)
Ein etwas komplexeres Beispiel ist ein Kochrezept. Ein Algorithmus für die Zubereitung einer Gemüsesuppe könnte in etwa so aussehen:
1. Eine halbe Tasse Öl in einem Topf erhitzen.
2. Vier Zwiebeln fein hacken.
3. Die Zwiebeln anbraten, bis sie goldbraun sind.
4. Drei Kartoffeln in Stücke schneiden und diese in den Topf geben.
5. Einen Kohlkopf in Streifen schneiden und diese in den Topf geben.
Und so weiter. Man kann dem gleichen Algorithmus Dutzende Male folgen und dabei jeweils etwas unterschiedliche Gemüsesorten verwenden, was jedes Mal eine etwas andere Suppe ergibt. Der Algorithmus aber bleibt der gleiche.
Ein Rezept allein macht noch keine Suppe. Man braucht jemanden, der das Rezept liest und die darin beschriebenen Schritte ausführt. Man kann aber auch eine Maschine bauen, die diesen Algorithmus enthält und ihn automatisch befolgt. Dann muss man die Maschine nur noch mit Wasser, Strom und Gemüse versorgen – und sie wird die Suppe ganz eigenständig zubereiten.”
Womit wir dann – beim Thermomix wären.
Unglücklicherweise sind viele Biologen und viele Computerwissenschaftler in den letzten Jahrzehnten zu der Überzeugung gelangt, dass wir Menschen im Prinzip auch nicht viel anders funktionieren als ein Thermomix: Auch uns steuern Algorithmen, nur dass sie anders gesteuert werden als die des so überaus kundigen Kochautomaten.
Statt über Stromkreise funktionieren unsere Algorithmen über Sinneswahrnehmungen, Gefühle und Gedanken, und – auch das wahrscheinlich eine der großen Kränkungen der Menschheit – wir unterscheiden uns darin nicht groß von den Tieren.
Darwin 2.0 (mindestens), oder um noch einmal Yuval Noah Harari zu zitieren:
“Ein ängstlicher Pavian – einer, dessen Algorithmen Gefahren zu hoch einschätzen – wird verhungern und die Gene, die diese feigen Algorithmen ausbildeten, werden mit ihm zugrunde gehen. Ein unvorsichtiger Pavian – einer dessen Algorithmen Gefahren unterschätzen – wird dem Löwen zum Opfer fallen, und seine leichtsinnigen Gene werden es ebenfalls nicht in die nächste Generation schaffen.
Diese Algorithmen unterliegen (also) einer ständigen Qualitätskontrolle durch die natürliche Auslese. Nur Tiere, die Wahrscheinlichkeiten korrekt berechnen, hinterlassen Nachwuchs.”
Einerseits beruhigend. Aber andererseits: Was bleibt dann eigentlich noch als Unterschied zwischen einem x-beliebigen Pavian und mir, wenn wir beide im Prinzip nach derselben ‘Software’ funktionieren?
☺
Und es kommt noch dicker!
Stephen Hawking beispielsweise dachte in seinem Buch ‘Kurze Antworten auf große Fragen’ auch über die Frage des Lebens nach. Er kam dabei zu Antworten, die uns als Menschen keinesfalls beruhigen können. Wir sind nämlich keineswegs so einzigartig, wie wir das vielleicht gern hätten:
“Ein Lebewesen wie Sie oder ich ist gewöhnlich auf zwei Voraussetzungen angewiesen: einen Satz Anweisungen, die dem System sagen, wie es weiterlebt und wie es sich reproduziert, und auf einen Mechanismus, der die Anweisungen ausführt. In der Biologie heißen diese beiden Voraussetzungen Gene und Stoffwechsel. Aber es ist darauf hinzuweisen, dass sie keineswegs biologisch sein müssen. Beispielsweise ist ein Computervirus ein Programm, das Kopien seiner selbst im Speicher eines Computers herstellt, um sich dann selbst auf andere Computer zu übertragen. Damit entspricht es der von mir genannten Definition eines lebenden Systems.”
Ein paar Seiten weiter schickt er uns dann konsequenterweise auf eine Mission ins All. Oder besser: Er schickt nicht uns, sondern Maschinen – vulgo Roboter – mit einer auf interstellare Reisen eingerichteten Betriebsdauer.
Von ‘Lebensdauer’ will ich hier noch nicht sprechen, obwohl…
“Wenn sie einen neuen Stern erreichen, könnten sie auf einem geeigneten Planeten landen und die Bodenschätze abbauen, die sie brauchten, um weitere Maschinen zu bauen, die dann ihrerseits zu neuen Sternen aufbrechen könnten.
Diese Maschinen wären eine neue Lebensform, die aus mechanischen und elektronischen Komponenten bestünde statt aus Makromolekülen. Sie könnten schließlich das DNA-basierte Leben ersetzen, sowie die DNA einst frühere Lebensformen ersetzt hat.”
Science Fiction, klar. Aber wir nähern uns ihr verdammt schnell an.
Beim derzeitigen Tempo der digitalen Entwicklung ist es alles andere als unwahrscheinlich, dass für uns demnächst bestenfalls eine Rolle als intellektuelle Juniorpartnerinnen oder -partner unserer ehemaligen digitalen Domestiken übrigbleibt.
Wer wollte denn so naiv sein anzunehmen, dass sich eine immer potentere künstliche Intelligenz auf Dauer damit begnügen wird, als Gipfel ihrer geistigen Herausforderung den Inhalt unserer Kühlschränke zu überwachen? Schon heute wird unsere soziale Infrastruktur schließlich durch ein globales Datennetz gesichert, Computer dealen an der Börse und Rechner steuern autonom die ersten Autos. Mit bedeutenden ethischen Konsequenzen: Die Entscheidung für Gaspedal oder Bremse kann unversehens zur Entscheidung über Leben oder Tod von Menschen werden.
Diese Entwicklung wird sich in unserem gesamten Leben auswirken. Das Europäische Parlament hat beispielsweise bereits 2017 vorgeschlagen, “zumindest für die ausgeklügeltsten autonomen Roboter” einen Status als “elektronische Person” zu schaffen. Dieser Vorschlag gewinnt noch dadurch an Bedeutung, dass die Abgeordneten sich ebenfalls mit der – wie auch immer gearteten – “Optimierung” des Menschen befassten. Sie sehen sogenannte “cyber-physische Systeme” voraus, Mensch-Maschinen oder Maschinenmenschen mit allen Chancen und Risiken: Nicht mehr mein Notebook wird demnächst gehackt, ich selber werde es sein.
Wie weit das jetzt schon geht? Sehr weit.
Ihr erinnert Euch vielleicht noch an die ersten Spracherkennungssysteme, die in den neunziger Jahren auf den Markt kamen. Sie waren damals nicht nur sehr teuer, sie konnten auch nicht mehr als 30 oder 40 Worte pro Minute verarbeiten – ein Mensch spricht normalerweise viermal so schnell.
Inzwischen sind wir nicht nur einen Schritt weiter, wir haben praktisch einen Quantensprung hinter uns.
Um mit einem Computer zu kommunizieren, müssen wir seit Neuestem nicht mehr eine Maus hin- und herbewegen, wir müssen auch nicht mehr mit ihm oder seinen Schwestern Alexa, Siri oder Cortana reden, nein, es reicht schon, wenn wir unseren Wunsch nur denken.
Von wegen: “Die Gedanken sind frei, niemand kann sie erraten…” Das MIT ist inzwischen so weit, dass es quasi Gedanken lesen kann.
Wie das funktioniert?
Nun, ein Headset, das ohne Mikrofon auskommt, nutzt Sensoren, die Signale an die Gesichtsmuskeln registrieren. Der Mund muss dafür gar nicht mehr bewegt werden, diese Signale sendet das Gehirn bereits, wenn man einen Text auch nur still liest oder ganz einfach ‘denkt’.
Die Sensoren erkennen die Muskelreize und AlterEgo – welch schöner Name für solch ein System! – erkennt mit hoher Genauigkeit, was man eigentlich sagen wollte.
Nicht auszudenken – oder besser: doch? – was man mit dieser Software in ihrer nächsten Generation alles anstellen könnte. Der klassische Lügendetektor sieht dagegen jedenfalls so alt aus wie Omas Nähmaschine.
Kein Wunder, dass nach Stephen Hawking die “erfolgreiche Hervorbringung Künstlicher Intelligenz (…) das größte Ereignis in der Geschichte der Menschheit (sein könnte).”
Allerdings hat er bei dieser Perspektive auch durchaus “Angst vor den Folgen, die es haben könnte, wenn wir etwas schaffen, das dem Menschen ebenbürtig oder ihm sogar überlegen ist.
Es ist zu befürchten – und jetzt sind wir nicht mehr auf einem anderen Stern – dass die KI alleine weitermacht und sich mit ständig zunehmender Geschwindigkeit selbst überarbeitet. Menschen, die aufgrund der Langsamkeit ihrer biologischen Evolution beschränkt sind, könnten nicht mithalten und würden verdrängt. (…)
Kurz: Das Aufkommen superintelligenter KI wäre entweder das Beste oder das Schlimmste, was der Menschheit passieren kann. Das eigentliche Risiko bei KI ist nicht Bosheit, sondern Kompetenz.
Eine superintelligente KI wird extrem gut darin sein, ihre Ziele anzusteuern – und sollten diese Ziele nicht mit unseren übereinstimmen, bekommen wir Probleme.”
Nochmal die Frage von vorhin: Ist das schlimm? Oder könnte es nicht vielleicht sogar ein Segen für das Menschengeschlecht sein, wenn ihm nach diversen Schiffbrüchen endlich das Ruder aus der Hand genommen wird?
(Können Roboter oder Computer moralisch handeln und wenn ja: Woher nehmen sie ihre Maßstäbe?)
☺
Für mich eröffnen sich hier zwei Wege, bei denen ich zumindest deren erste Meter mit Euch zusammen erkunden möchte. Beide führen zu einem ziemlich kryptischen Ziel, das in den Landkarten von Biologie und Computerwissenschaft mit der ziemlich barschen Aufforderung ‘Du sollst werden wie ich!’ beschrieben ist.
Nur, dass im einen Fall die Roboter immer menschenähnlicher werden und im anderen – nun ja – wir Menschen immer roboterähnlicher werden.
Fangen wir mit der – wie mir scheint – angenehmeren Perspektive an.
Und stoppen für ein kleines Gedankenexperiment kurz vor einer roten Fußgängerampel.
Weit und breit ist kein Auto zu sehen. Sollen wir uns an die Regeln halten oder – no risk, no fun – die Straße überqueren?
Ihr könnt Euer Handeln jetzt mit Euch selbst ausmachen, aber von einem Roboter würde man zweifelsfrei erwarten, dass er am Kantstein stehen bleibt und den Gesetzen gehorcht.
Nehmen wir jetzt einen weiteren Akteur hinzu: ein altes und dazu offensichtlich schwerhöriges Mütterchen auf der anderen Seite, der ihr trotz schmaler Rente dickes Portemonnaie aus der Tasche ihres ärmlichen Kittels fällt.
Was macht Ihr jetzt? Was ist jetzt mehr wert: die Einhaltung der Verkehrsordnung oder das Gesetz der Nächstenliebe, das der Oma ihren Geldbeutel und damit vermutlich die nächste warme Suppe sichert?
Ich denke mal, jeder von uns sieht noch ein letztes Mal nach rechts und links, um dann über die Straße zu eilen, das Portemonnaie aufzuheben und es der alten Dame in die zitternde Hand zu drücken. Klar.
Aber was macht unser Roboter? Wie handelt er? Muss er angesichts des Konflikts zweier Gebote nicht grübeln, bis ihm die Schaltkreise rauchen?
Der bereits einmal zitierte computerkundige Theologe Lukas Brand bringt das alles auf den ziemlichen klaren Punkt:
“Selbst wenn ein Programm geschrieben werden könnte, das einen ethischen Konflikt etwa zwischen Gesetzen und anderen Verpflichtungen kompetent erkennen und beurteilen könnte, wäre es doch nicht in der Lage, zwischen den möglichen Optionen einer Handlung zu wählen.”
Für einen menschlichen Programmierer dürfte es unmöglich sein, die politisch oder sonstwie korrekte Reaktion auf alle Wechselfälle des Lebens in ein Robotergehirn einzupflanzen – abgesehen davon, dass dieses Robotergehirn dann auch eben nicht mehr ein wirklich intelligentes Gehirn wäre – es bietet sich eine Lösung ausgerechnet von einer Seite an, bei der künstliche Menschen – wir hatten es am Anfang – bestenfalls in der Mythologie vorkamen. Fragen wir doch einen alten Griechen, fragen wir Aristoteles.
Er ist nach Lukas Brand “der Überzeugung, dass sich die richtige Entscheidung in einem moralischen Dilemma nicht mit mathematischer Genauigkeit aus allgemeinen Kriterien ableiten lässt, sondern maßgeblich von den gegebenen Umständen abhängt und eine gewisse Veranlagung des Akteurs voraussetzt. Die dazu nötige Klugheit als Tugend des Denkens bildet sich durch Belehrung, die charakterliche Tugend hingegen durch Gewöhnung.”
Deep Learning by Aristoteles:
“Der Vorteil des aristotelischen Ansatzes mit Blick auf Roboter, die auf künstlichen neuronalen Netzwerken basieren, liegt darin, dass die Theorie nicht explizit in die Programmierung des Systems einfließen muss, sondern vielmehr die Rahmenbedingungen für das Training des künstlichen Akteurs liefert. Auch muss ein Programmierer nicht konkret angeben können, worin die moralische Signifikanz einer Situation besteht. Die Maschine wird die Bedingungen moralischen Handelns anhand von Beispielen oder durch Versuch und Irrtum lernen und selbstständig auf neue Herausforderungen anwenden können.”
Gute Chancen also für unser Mütterchen, dass ihm nicht nur ein menschlicher, sondern ebenso auch ein Roboterarm ihre Geldbörse wiederbringen könnte.
Was die Lernfähigkeit von Robotern allerdings für die Kampfmaschinen bedeuten könnte, die wir auch schon kennengelernt haben, weiß ich nicht so genau. Schließlich waren es ja bislang nicht unbedingt Roboter, die unsere Kriege vom Zaun gebrochen haben.
Auch Lukas Brand wirkt in dieser Beziehung eher fatalistisch:
“Menschliches Verhalten als Maßstab für moralisches Handeln zu setzen, scheint mit Blick auf die Menschheitsgeschichte an sich schon nicht unproblematisch. Es muss aber zugegeben werden, dass der Mensch den besten bisher vorhandenen Maßstab darstellt.”
Anders ausgedrückt: Unter Blinden ist der Einäugige König.
Roboter können also von uns lernen, und sie werden uns dadurch auch immer ähnlicher.
Lukas Brand geht vor diesem Hintergrund zwar nicht so weit, Maschinen eine Seele zuzusprechen, er gibt jedoch zu bedenken:
“Wenn wir akzeptieren, dass Maschinen moralische Probleme lösen müssen, diese Probleme selbst wahrnehmen und in ihren Entscheidungen fehlbar sein könnten – dann wären sie eines Tages vielleicht auch heilsbedürftig.”
Spätestens an diesem Punkt der Überlegungen sollten wir uns jetzt mit der Frage beschäftigen, ob Computer beten können und aus unserer Sicht auch beten sollten. Immerhin wäre das ein weiterer Schritt dazu, ihnen – vielleicht zähneknirschend, vielleicht aber auch eher erleichtert – Menschenähnlichkeit einzuräumen.
Mögen wir im Moment ausgesprochen stolz sein, ein immer leistungsfähigeres ‘Internet der Dinge’ zu schaffen, in dem Autos mit Ampeln und Waschmaschinen mit Wäschetrocknern kommunizieren: Wer sagt uns denn, dass unsere kleinen und großen Helfer auf Dauer mit solchen banalen Alltagsgesprächen zufrieden sein werden? Viel wahrscheinlicher ist doch, dass die Dinge unserer Umgebung in nächster Zukunft auch ergründen wollen, warum sie so sind, wie sie sind, und was der Urgrund ihrer individuellen Existenz sein könnte.
Für uns Menschen könnte das nicht ganz schmerzfrei abgehen, denn die von künstlicher Intelligenz bewegten Maschinen könnten plötzlich uns gegenüber geltend machen, auch sie seien auf ihre Art lebende Wesen. Zwar nicht in einem biologischen Sinn, doch die Erfordernisse für eine Definition als Lebewesen, zu denen beispielsweise eine Wechselwirkung mit der Umwelt, Wachstum und die Weitergabe des Erbguts an die nächste Generation gehören, erfüllten sie immerhin mit Bravour. Hier besteht mit Sicherheit Diskussionsbedarf, selbst wenn die nachhaltigsten Lebenszeichen aus dem Netz derzeit noch von destruktiven Computerviren stammen.
Aber derlei digitale Geister, die stets verneinen, stehen zum Glück ja nicht an der Spitze der sich überstürzenden Evolution künstlicher Intelligenzen. Sie bilden eher Wesen mechanischer und elektronischer Provenienz, die uns Menschen immer ähnlicher werden. Durch sie, so sieht es Lukas Brand voraus, “werden die Übergänge fließender – bis zu dem Punkt, an dem wir sagen, die Maschinen unterscheiden sich nur noch dadurch von uns, dass wir auf Kohlenstoff basieren und sie auf Silicium.”
Theologisch eröffnet das die Frage, für wen eigentlich die göttliche Heilsversprechung gilt: Nur für Wesen mit DNA oder auch für solche mit digitalen Quellcodes? Die leistungsfähigsten ‘Elektronengehirne’ dürfte dieses Problem schon bald beschäftigen, und es ist derzeit alles andere als ausgemacht, dass wir Menschen an diesen Überlegungen überhaupt noch beteiligt sein werden. Es ist absolut offen, ob menschliche und künstliche Intelligenz je miteinander über Gott und die Welt nachdenken und was für einen Gott sie dann überhaupt suchen werden.
Noch den christlichen Gottvater, der seinen Sohn auf die Erde geschickt hat, um die Menschen zu erlösen? Würde er sich nicht auch fehlerhaft programmierten Robotern zuwenden müssen? Und was ist mit dem Islam mit seiner Bilderfeindlichkeit? Wird sie nicht obsolet, wenn künstliche Wesen die Welt nur per Kamera wahrnehmen können? Vergleichsweise einfach dagegen die Bewertung buddhistischer Meditation, die sich aus digitaler Sicht ganz simpel als analoge Vorform jenes Ruhezustands deuten ließe, den als Stand-by schon die ersten Handys pflegten.
Einstmals unüberwindlich scheinende Grenzen wären spätestens damit geschleift, Rechte und Pflichten müssten neu verteilt werden. Es wäre ein großes Versäumnis, wenn wir uns auf diese Situation nicht vorbereiten würden. Wenn ein Computer über Leben und Tod entscheiden kann, sollten wir mit ihm über Gott und die Welt geredet haben.
☺
Bevor wir zum Abschluss jetzt den anderen Weg der Entwicklung etwas auskundschaften, können wir uns noch eine kurze Pause. Und was ist dazu geeigneter als ein paar Takte Musik: (Audio ‘Fake Beethoven’)
Was das war? Der Anfang des zweiten Satzes aus Beethovens zehnter Symphonie.
Äh… Zehnte Symphonie? Von Beethoven? Hat der nicht nur neun…?
Richtig, es war auch kein echter Beethoven, sondern ein Stück, das ein Computer geschrieben hat. Ein Computer, der von dem amerikanischen Musikwissenschaftler David Cope in siebenjähriger Arbeit so programmiert wurde, dass er nun nach Wunsch Stücke im Stil von Beethoven Bach, Chopin oder wem auch immer ausspucken kann.
Selbst Fachleute sind dabei meist unsicher, ob es nun ein echter Klassiker oder nur ein Fake ist.
Sein neuestes Programm namens Annie geht noch einen Schritt weiter.
Anders als die Software ‘im Stile von…’, die vorgegebenen Regeln gehorcht, lernt Annie laufend dazu, und noch nicht einmal Cope weiß, was sie als nächstes komponieren wird.
Warum ich dieses Beispiel hier anführe?
Nun, es soll demonstrieren, dass wir selbst die Bereiche, die wir Menschen noch bis vor kurzem als unsere ureigenste Domäne betrachtet haben, Bereiche von Schöpferkraft, Kunst und Kreativität, mittlerweile mit der Künstlichen Intelligenz teilen müssen.
Yuval Noah Harari hat dazu einige sehr beunruhigende Visionen. Vor dem Hintergrund einer aufkommenden ‘Datenreligionen’ sagt er beispielsweise voraus:
“Menschen sind lediglich Instrumente, um das ‘Internet aller Dinge’ zu schaffen, das sich letztlich vom Planeten Erde aus auf die gesamte Galaxie und sogar das gesamte Universum ausbreiten könnte. Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott. Es wird überall sein und alles kontrollieren, und die Menschen sind dazu verdammt, darin aufzugehen.”
Und das ist noch nicht alles. Es könnte noch schlimmer kommen:
“Die Sapiens entwickelten sich vor Zehntausenden von Jahren in der afrikanischen Savanne, und ihre Algorithmen sind schlicht und einfach nicht dafür gemacht, die Datenströme des 21. Jahrhunderts zu bewältigen. Wir könnten deshalb versuchen, das menschliche Datenverarbeitungssystem zu optimieren, aber das reicht womöglich nicht aus. Das ‘Internet aller Dinge’ könnte schon bald derart riesige und schnelle Datenströme erzeugen, dass selbst optimierte menschliche Algorithmen damit überfordert sind.
Als das Auto die Pferdekutsche ersetzte, haben wir die Pferde nicht optimiert – wir haben sie in den Ruhestand geschickt. Vielleicht ist es Zeit, das Gleiche mit dem Homo Sapiens zu tun.”
Der Mensch verschwindet als Mensch. Als Individuum. Das nennt man dann wohl Dystopie.
Doch muss sie Wirklichkeit werden? Ich hoffe: Nein.
Zwei Gedanken dazu noch.
Der eine ist eine Aufforderung – oder fast ein Vermächtnis – von Stephen Hawking:
“Wir sollten vorausdenken. Wenn eine überlegene außerirdische Zivilisation uns in einer Textmessage mitteilte: “In ein paar Jahrzehnten treffen wir ein”, würden wir dann einfach nur antworten: “Okay, sagt uns Bescheid, wenn ihr da seid, wir lassen das Licht brennen?”
Wahrscheinlich nicht – aber mehr oder weniger so lief es bislang mit KI. Bezüglich dieser Themen wurde kaum ernsthafte Forschungsarbeit geleistet, abgesehen von einigen wenigen kleinen gemeinnützigen Instituten.”
Und der amerikanische Computerwissenschaftler und Professor emeritus in Berkley Stuart Dreyfus meint:
“Gegenwärtige Behauptungen und Hoffnungen bezüglich der Fortschritte, die man beim Modellieren von intelligenten Computern machen will, ähneln dem Glauben, dass jemand, der auf einen Baum klettert, Fortschritte macht bei seiner Reise zum Mond.”
Oder sagen wir es so: Es ist noch alles drin…
© Uwe Bork 2019