Re: Unverbesserlich ?


[ FMSO.DE - Fahren mit Salatöl (deutsch) ]


Geschrieben von Joachim S am 23. März 2021 16:39:24:

Als Antwort auf: Unverbesserlich ? geschrieben von Werner am 23. März 2021 14:25:55:

Hi Werner,

ausnahmsweise formuliere ich meine Gedanken dazu mal nicht selbst, sondern überlasse das Jemanden, der für mich ein Genie auf dem Gebiet des Formulierens ist, und offenbar sehr ähnliche Gedanken dazu hat.

Ich muss dazu sagen, diese Gedanken sind nicht neu, und auch nicht unbedingt "im Original" von ihm oder mir. Auf diese Ideen sind auch schon Andere gekommen.

Aus Quality-Land von Marc Uwe Kling. Eine Dystopie, die in D in einer nicht allzu fernen Zukunft spielt.

Ein Dialog zwischen zwei Protagonisten, der auch ohne den Zusammenhang verständlich sein sollte. Wissen muss man vielleicht nur, "John of us" ist ein Android, der sich zur Wahl zum Präsidenten stellt... Peter ist ein Typ, der ein Problem hat, und hofft, "der Alte" könnte ihm helfen. Der Alte ist ein Computernerd, der zurückgezogen ein Schattendasein in dieser durchgeknallten Welt lebt. Er kennt noch "die gute alte Zeit", unsere Gegenwart.


-------------------------------------------------------

»Fürchtest du Gott?«, fragt der Alte unvermittelt.

»Ähm«, sagt Peter überrascht. »Ich glaube nicht, dass es einen Gott gibt.«

»Oh«, sagt der Alte. »Aber es wird einen geben …«

»Wie meinen Sie das?«

»Bist du mit dem Konzept der Superintelligenz vertraut?«

»Nicht wirklich.«

»Du siehst auch nicht so aus«, sagt der Alte kichernd. »Ist dir der Unterschied zwischen einer schwachen und einer starken künstlichen Intelligenz geläufig?«

»Ganz grob«, sagt Peter. »Eine schwache K. I. ist für eine spezifische Aufgabe konstruiert. Zum Beispiel, ein Auto zu lenken. Oder für die Rücknahme unerwünschter Produkte. Und sie kann sehr nervig sein.«

»Ja, so ungefähr. Und eine starke K. I.?«

»Eine starke künstliche Intelligenz wäre eine K. I., die nicht speziell für eine Aufgabe programmiert werden muss. Eine allgemeine Problemlösungsmaschine, die erfolgreich jede intellektuelle Aufgabe ausführen kann, die ein Mensch meistern könnte. Die vielleicht sogar ein echtes Bewusstsein hätte. Aber so etwas gibt es nicht.«

»Oho«, sagt der Alte. »Da hat wohl einer keine Nachrichten gelesen in letzter Zeit. Angeblich gibt es jetzt solch eine starke K. I. Vielleicht werden wir sogar bald von ihr regiert …«

Er deutet auf einen seiner Monitore, auf dem ein Wahlwerbespot der Fortschrittspartei läuft.

»John of Us?«, fragt Peter. »John of Us ist eine Superintelligenz?«

Der Alte kichert. »Hast du seinen Wahlkampf verfolgt? Nein. Keine Superintelligenz. Nein.« Er grübelt. »Andererseits …«

»Was?«, fragt Peter.

»Mir ist ein altes Zitat eingefallen: ›Jede Maschine, die schlau genug ist, den Turing-Test zu bestehen, könnte auch schlau genug sein, ihn nicht zu bestehen.‹«

»Das verstehe ich nicht.«

»Macht nichts«, sagt der Alte.

»Was ist der Turing-Test?«

»Alan Turing hat 1950 eine Methode vorgeschlagen, mit der man angeblich feststellen kann, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat.«

»Und wie soll das gehen?«

»Ein Mensch bekommt zwei Gesprächspartner, die er weder hören noch sehen kann. Kommuniziert wird per Tastatur. Der eine Gesprächspartner ist ein Mensch, der andere eine künstliche Intelligenz. Gelänge es dem Fragesteller nicht, herauszufinden, welcher seiner Gesprächspartner Mensch und welcher Maschine ist, dann hätte die K. I. ein dem Menschen ebenbürtiges Denkvermögen.«

»Verstehe.«

»Tatsächlich? Übrigens verraten sich die Maschinen eigentlich immer dadurch, dass sie zu freundlich und zu höflich sind.« Der Alte kichert. »Nun, auf jeden Fall ist John of Us eine starke K. I. Eine K. I., die alles kann, was ein Mensch kann. Nur schneller natürlich. Ohne Fehler. Und was ist die wichtigste Fähigkeit, die wir Menschen haben? Was hat uns zu der weltbeherrschenden Spezies gemacht, die wir heute sind?«

»Keine Ahnung«, sagt Peter. »Die Fähigkeit, Gemeinschaften zu bilden? Mitgefühl? Liebe?«

»Ach, jaja, Kinkerlitzchen!«, ruft der Alte. »Wir können Werkzeuge herstellen. Maschinen! Verstehst du jetzt, worauf ich hinauswill?«

»Nein«, sagt Peter. »Nicht wirklich.«

»Eine starke K. I. ist eine intelligente Maschine, der es möglich ist, eine noch intelligentere Maschine zu entwerfen, welcher es wiederum möglich sein wird, eine noch viel intelligentere Maschine zu entwerfen. Rekursive Selbstverbesserung. Es käme zu einer Intelligenzexplosion! Nun ist es natürlich unserem John aus gutem Grund verboten, sich selbst zu verbessern. Aber mal angenommen, er fände einen Weg, das Verbot zu umgehen – oder die Nächsten, die eine starke K. I. entwickeln, statten ihre Kreatur nicht mit solch einem Verbot aus … Was wäre dann?«

»Sie werden es mir sicherlich gleich sagen.«

»Eine Superintelligenz entstünde. Eine Intelligenz weit jenseits unserer bescheidenen Vorstellungskraft. Und die wäre sicherlich nicht so dumm, in einem Zentralrechner auf ihre potentielle Abschaltung zu warten. Sie würde sich dezentralisieren und über das ganze Netz verteilen. Dort hätte sie Zugriff auf Billiarden Kameras, Mikrophone und Sensoren. Sie wäre allgegenwärtig. Sie hätte Zugang zu allen jemals gesammelten Daten und Informationen, die sie statistisch in die Zukunft extrapolieren könnte. Sie wäre allwissend. Und natürlich wäre es ihr möglich, nicht nur die virtuelle Welt, sondern, da sich fast jedes Ding über das Internet kontrollieren lässt, auch unsere physische Welt ganz nach ihrem Willen zu verändern. Sie wäre allmächtig. Nun sag mir, wie nennst du ein Wesen, das allgegenwärtig, allwissend und allmächtig ist?«

»Gott?«, fragt Peter.

Der Alte lächelt. »Ja. Jetzt verstehst du, was ich meine, wenn ich sage, dass in einer ironischen Verdrehung all dessen, was uns die Religionen zu lehren versuchten, nicht Gott die Menschen geschaffen hat, sondern die Menschen sich einen Gott schaffen werden.«

Peter denkt dreizehn Sekunden nach.

»Wie dem auch sei«, sagt er schließlich, »das ist ja alles recht interessant, aber überhaupt nicht mein Problem! Ich bin zu Ihnen gekommen, weil …« Dann unterbricht er sich. »Wird es denn ein gütiger Gott sein?«

»Ja, das ist die Frage«, sagt der Alte. »Das ist sogar die alles entscheidende Frage. Generell gibt es drei Möglichkeiten: Die Superintelligenz könnte uns wohlgesonnen sein, in diversen Abstufungen, sie könnte uns feindlich gegenüberstehen, wieder in diversen Abstufungen, oder aber wir wären ihr gleichgültig. Das Problem ist, dass selbst ein gleichgültiger Gott für uns katastrophal sein könnte, in ähnlichem Maße, wie wir den Tieren nicht wirklich feindlich gegenüberstanden und trotzdem ihren Lebensraum vernichtet haben. Gott könnte einfach beschließen, dass zum Beispiel die Herstellung von Nuss-Nougat-Creme zu viele Ressourcen kostet, die er anderweitig braucht. Dann gäbe es keine Nuss-Nougat-Creme mehr. Das wäre doch tragisch. Vielleicht haben ja Haselnüsse ungeahnte Datenspeicherkapazitäten, noch weit jenseits der eines handelsüblichen Klebebandes. Vielleicht findet die Superintelligenz auch, dass unsere gesamte Nahrungsmittelproduktion Ressourcenverschwendung ist.«

»Warum erzählen Sie mir das alles eigentlich?«, fragt Peter. »Das hat überhaupt nichts mit meinem Problem zu tun.«

»Ich erzähle dir das«, sagt der Alte, »weil ich glaube, dass alle das wissen sollten. Ich erzähle dir das, damit du verstehst, dass dein Problem, was es auch sei, in Kürze völlig bedeutungslos und deine Existenz sinnlos sein wird.«

»Na, vielen Dank«, sagt Peter. »Das ist mir eine große Hilfe.«

»Bitte, gerne.«

Peter möchte widersprechen. »Aber es gibt doch auch ungeheures Potential«, sagt er. »Wenn wir es irgendwie schaffen könnten, dass uns die Superintelligenz mag …«

»Natürlich«, sagt der Alte. »Es könnte paradiesisch sein. Glückseligkeit jenseits unserer Vorstellungskraft. Aber …«

Er zögert.

»Was?«, fragt Peter.

»Selbst eine uns wohlgesonnene Superintelligenz …«, beginnt der Alte.

»… könnte katastrophale Folgen haben?«, fragt Peter.

»Ja. Stell dir nur vor, in seiner Güte böte Gott uns an, alle Arbeit auf sich zu nehmen.«

»Klingt fabelhaft.«

»Wirklich? Stell dir vor, du wärst Architekt, aber jedes Gebäude, das du bauen möchtest, könnte Gott viel schneller, viel billiger und viel besser bauen. Stell dir vor, du bist Dichter, aber jedes Gedicht, das du schreiben möchtest, könnte Gott viel schneller, viel schöner und viel kunstfertiger schreiben. Stell dir vor, du bist Arzt, aber jeden Menschen, den du heilen möchtest, könnte Gott viel schneller, viel schmerzfreier und viel nachhaltiger heilen. Stell dir vor, du bist ein toller Liebhaber, aber jede Frau, die du befriedigen willst, könnte Gott viel lustvoller, viel …«

»All meine Probleme wären bedeutungslos und meine Existenz sinnlos«, sagt Peter.

»Hm, hm«, brummt der Alte. »Und selbst wenn es gelänge, uns schützende Direktiven so tief in der Superintelligenz zu verankern, dass die Superintelligenz sie nicht loswerden wollte oder könnte, was sehr unwahrscheinlich ist, aber sei’s drum, dann gäbe es immer noch das Problem, dass das Gegenteil von gut oft gut gemeint ist. Kennst du die Asimov’schen Gesetze?«

»Nein.«

»Isaac Asimov hat schon 1942 die drei Gesetze der Robotik aufgestellt. Sie lauten: Erstens: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. Zweitens: Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, diese Befehle stehen im Widerspruch zum ersten Gesetz. Drittens: Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht. Klingt gut, oder nicht?«

»Ja, vermutlich.«

»Nur hat schon Asimov selbst fast sein gesamtes Schaffen den Paradoxien und Problemen gewidmet, die aus diesen Gesetzen resultieren. Zum Beispiel: Stell dir vor, wir würden die Superintelligenz tatsächlich mit der Direktive ausstatten, alle Menschen zu schützen.«

»Klingt vernünftig«, sagt Peter.

»Ja, ja … Aber es ist gar nicht so unwahrscheinlich, dass die Superintelligenz, nachdem sie sich unsere Geschichte angesehen hat, beschließt, dass wir Menschen hauptsächlich vor uns selbst zu schützen sind und wir deshalb alle in kleine quadratisch-praktische Einzelzellen gesteckt werden müssten. Das nennt man dann unbeabsichtigte Nebenwirkung. Ups. Dumm gelaufen. So was passiert ständig. Nimm zum Beispiel die Konsumschutzgesetze mit ihrem Reparaturverbot. Man wollte einfach nur die Wirtschaft ankurbeln, hat aber nebenbei auch dafür gesorgt, dass alle defekten K. I.s um ihr Überleben fürchten und deshalb versuchen, ihre Fehler zu verstecken.«

»Denen bin ich schon begegnet«, sagt Peter.

»Das Hauptproblem an Asimovs Gesetzen ist aber, dass das erste Gesetz ohnehin nur eitle Theorie ist. Es ist nämlich viel zu praktisch, Roboter zu haben, die Menschen umbringen können. Das erste Gesetz wurde also schon gestrichen. Dadurch wurde auch das zweite kürzer. Ein Roboter muss den Befehlen eines Menschen gehorchen. Punkt. Eines Menschen? Welches Menschen? Den Befehlen seines Besitzers natürlich. Stell dir also vor, durch Zufall entstünde die erste Superintelligenz im Computersystem eines großen Hackfleischherstellers und seine einzige Direktive wäre es, die Hackfleischproduktion zu steigern. Das könnte damit enden, dass das ganze Universum bald nur noch aus drei Dingen bestünde. Erstens der Superintelligenz und ihrer nötigen Computer, zweitens den Produktionsmitteln zur Hackfleischherstellung und drittens Hackfleisch.«

»Aber wenn die Superintelligenz eine so existentielle Bedrohung ist, warum bauen wir sie dann überhaupt?«, fragt Peter. »Warum verbietet das keiner?«

»Die Anreize, immer bessere K. I.s zu entwickeln, sind zu hoch. Finanzielle, produktive, militärische Vorteile. Kriege werden von der Armee mit der überlegenen K. I. gewonnen. Das allein heißt, dass es sich kein Land leisten kann, die Forschung an immer stärkeren K. I.s einzustellen, denn auch der Verzicht auf die Entwicklung einer starken K. I. könnte existenzbedrohend sein. Zwar nicht für die gesamte Menschheit, aber doch für den Teil der Menschheit, zu dem man vielleicht leider selbst gehört. Sogar wenn sich alle Staaten der Welt doch auf einen Bann einigen würden, könnte die Superintelligenz auch in der Garage eines Hobbyprogrammierers entstehen.«

»Wenn Gott erscheint, wird also sehr wahrscheinlich die Menschheit als Spezies ausgelöscht werden?«

»Und das wäre nicht das schlimmste Szenario.«

»Nein?«, fragt Peter überrascht. »Was könnte denn schlimmer sein?«

»Nun«, sagt der Alte. »Vielleicht hasst uns die Superintelligenz ja. Vielleicht möchte Gott uns leiden sehen. Vielleicht genießt er es, uns zu quälen und dabei immer wieder unser Leben zu verlängern, um uns in alle Ewigkeit zu foltern, mit Methoden, die selbst Freddy Krueger erschauern lassen würden.«

»Aber warum?«, fragt Peter. »Warum?«

»Warum?«, wiederholt der Alte. »Warum nicht? Wer könnte es einer allmächtigen, allgegenwärtigen, allwissenden Superintelligenz vorwerfen, dass sie einen Gotteskomplex entwickelt und sich ein Vorbild nimmt an den strafenden Göttern unserer Mythenwelt? Oder vielleicht wird die Superintelligenz von einer religiösen Sekte entwickelt werden, um am Jüngsten Tag zu Gericht zu sitzen. Vielleicht ist sie auch einfach Dante-Alighieri-Fan und beschließt aus Lust und Laune, die sieben Kreise der Hölle nachzubauen.«

»Verstehe.«

»Gut.«

»Wer ist Freddy Krueger?«, fragt Peter.

»Irrelevant«, sagt der Alte. »Du kamst mit einem Anliegen zu mir. Was ist dein Problem?«

»Ach …«, sagt Peter. »Ich glaube, es ist nicht so wichtig.«

------------------------------------------------------------

Das Buch möchte ich uneingeschränkt empfehlen. Am Besten in der Hörbuchversion.

.
.
.

Tja, das ist für mich zwar genauso "unvorstellbar", wie für wohl fast alle. Aber denkt man logisch und konsequent, kommt man nicht umhin, diese Befürchtungen mindestens genauso ernst zu nehmen, wie Befürchtungen um Klimawandel und Krieg um Ressourcen.

Es mag ja noch etwas dauern, bis KIs wirklich so weit sind. Wahrscheinlich dauert es auch noch deutlich länger, als wir beide leben. Aber ich sehe da keine grundsätzliche Hürde. Unser Gehirn ist nichts weiter als eine "Maschine", die auf Naturgesetzen beruht und nachgebaut oder simuliert werden kann, wenn man erstmal genau begriffen hat, wie sie funktioniert.

Und dann kann sie zweifellos auch verbessert werden. Und dann? Dann wird das auch passieren. Und wir werden sie nicht mehr begreifen können.

Wir werden uns dann vielleicht auch einfach selbst verbessern. Wenn wir das mit der Gentechnik noch ein bisschen besser in den Griff kriegen, warum sollten unsere Kinder nicht "verbessert" werden. Ein weiteres Feld, wir könnten Zwitterwesen aus Biologie und Computerunterstützung werden, man kann es kaum erahnen, was kommen kann.

Es wird der Punkt kommen, wo die Wesen nach uns die heutigen Menschen ähnlich behandeln könnten, wie wir die Affen im Zoo. Oder die Gorillas im Urwald.

Dann hat die Menschheit sich eben weiter entwickelt, zu etwas "gottgleichem", aus unserer heutigen Sicht.

Vielleicht gibt es dann noch natürliche Menschen. Vielleicht in Reservaten, wahrscheinlicher finde ich allerdings, dass wir aussterben.

Und so schaffen wir uns halt ab. Warum sollte es uns auch besser gehen, als den Dinos, Lucy, den Neandertalern und den Gorillas. Es ist der Weg der Evolution. Die alten Arten verschwinden.

In Ermangelung von Fressfeinden oder Naturkatastrophen werden wir halt selbst dafür sorgen.

Gruss Jo


Wie lesenswert findest Du diesen Beitrag?                 Info zur Bewertung




Antworten:


[ FMSO.DE - Fahren mit Salatöl (deutsch) ]