Ich begrüße unsere künftigen Herrscher, die Künstlichen Superintelligenzen

Eine Künstliche Intelligenz, die schlauer als der Mensch ist, gehört in der Science Fiction zu den Lieblingssujets. Es gibt Forscher, die behaupten, dass solch eine KI technisch nicht möglich ist. Andere halten sie für unvermeidlich. Wenn das der Fall sein könnte, steht die Menschheit vor einem schwierigen Problem. Können wir irgendwie sicherstellen, dass diese Superintelligenz uns wohlgesonnen ist? Können wir sie kontrollieren? Denn wenn uns das nicht gelingt, läge das Überleben der Menschheit allein in ihrer Hand. Eine Vorstellung, die uns so wenig gefallen kann, dass wir dann alles daransetzen müssten, ihre Entstehung zu verhindern.

Ein internationales Forscherteam hat eine schlechte Nachricht: Die Wissenschaftler – unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung – zeigen in einer neuen Studie anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass diejenigen, die sie programmiert haben, komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie.

Welche Techniken stehen zur Verfügung, um eine KI unter unsere Kontrolle zu bekommen? Erstens könnte man ihre Ressourcen gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet. Das würde jedoch auch den Nutzen der KI verringern. Die großen Menschheitsprobleme würde sie so nicht lösen können. Die zweite Möglichkeit: Wir motivieren die KI,  nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, etwa mit Hilfe ethischer Regeln (wie Asimovs Roboter-Gesetzen). Aber das funktioniert nicht, wie die Forscher zeigen.

Das Team konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er ihr Vorgehen als schädlich erachtet. Das klingt sinnvoll, es gibt jedoch ein Problem: Nach aktuellem Stand der Computerwissenschaften ist es unmöglich, einen solchen Algorithmus zu programmieren.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, versehentlich seine eigenen Prozesse zum Stillstand bringen könnte. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine.

Also verhindern wir doch lieber, dass eine superintelligente KI entsteht! Das Problem hat aber dummerweise eine zweite Ebene: Ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen. Das bedeutet, dass wir jedwede KI-Entwicklung sofort einstellen müssten – ansonsten marschieren wir unwissend über den Punkt hinaus, an dem sie sich noch stoppen ließe. Da das nicht passieren wird, werden wir zweifellos irgendwann mit solchen überintelligenten KIs zusammenleben müssen. Es sei denn, die Forscher haben recht, die ihre Existenz bezweifeln.

2 Comments

  • Das erfordert enorem Rechen Leistungen wie sie wohl mit Quantencpmputern möglich wären .Googel etc arbeiten wohl heftig daran.
    Diese MAschinen sollen über 0 und 1 hinausgehn können , sicher ein Frage der Progrmmierung.

    Habe hieruz ein spannedes Buch vpn Schätzing gelesen : Die Tyrannei des Schmetterlings.Hie geht es um ARES,eine Ki welche über die Raumzeit hinausgeht und neu Lebensformen entwickelt.(Insekten)

    Etwas alngatmig aber im Kern sehr spannend .Hier wird auch die Problematik des Zuganges zum Internet beschrieben.

    Beste Grüße R.Schulz

    • Hallo Reinhard und Ursula Schulz,

      Ja, die Tyrannei des Schmetterlings mit einer nüchternen aber auch einprägsamen Romanaussage von Frank Schätzing auf S. 126: „still und unmerklich verändert sich die Welt, und was verlorengeht , geht unwiederbringlich. Irgendwann wird es keinen Frühling mehr geben,keinen Sommer, Herbst , Winter. Nicht die Zyklen werden enden, nicht die Dinge verschwinden, sondern die Menschen, die sie benannt und die in Ihnen gelebt haben. Alles Geschehen vom Anbeginn der Zeit bis heute und darüber hinaus wird in der Namenlosigkeit einer Schöpfung fortbestehen, die keinen Schöpfer kennt, sondern nur sich selbst.“

      Aus diesen Sätzen (ich finde übrigens diesen Roman auch sehr spannend und gut geschrieben) ist eine gewisse aus der Perspektive betrachtete Trostlosigkeit zu erkennen. Wünschen wir uns, dass nicht eine netzumfassende KI beschleunigter Gehilfe dieser Prophezeiung wird. In analoger Weise wird diese Thema u.a. auch in Star Trek Serie „Picard“ Staffel 1″ behandelt – mit einem allerdings positiven menschlichen Ausgang. Ich denke, wir leben in einer spannenden Zeit und werden wahrscheinlich schneller als gedacht uns mit den Thema KI als begleitende neue evolutionäre Entwicklung der Menschheit auseinandersetzen müssen.

      Grüße L. Berndt

Leave a Comment

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

BrandonQMorris
  • BrandonQMorris
  • Brandon Q. Morris, 54, ist Physiker und beschäftigt sich beruflich und privat schon lange mit den spannenden Phänomenen des Alls. So ist er für den redaktionellen Teil eines Weltraum-Magazins verantwortlich und hat mehrere populärwissenschaftliche Bücher über Weltraum-Themen geschrieben. Er wäre gern Astronaut geworden, musste aber aus verschiedenen Gründen auf der Erde bleiben. Ihn fasziniert besonders das „was wäre, wenn“. Sein Ehrgeiz ist es deshalb, spannende Science-Fiction-Geschichten zu erzählen, die genau so passieren könnten – und vielleicht auch irgendwann Realität werden.

%d Bloggern gefällt das: