Blog

Stoppt die Entwicklung von künstlicher Intelligenz

Im April 2014 veröffentlichte der Physiker Stephen Hawking zusammen mit anderen Wissenschaftlern einen offenen Brief an die Menschheit über die bestehende Gefahr für unsere Spezies, die von der Entwicklung von künstlicher Intelligenz ausgeht: „Erfolg bei der Erzeugung von künstlicher Intelligenz wäre das bedeutendste Ereignis in der Geschichte des Menschen. Unglücklicherweise könnte es auch das letzte sein.“

Es ist nur noch eine Frage der Zeit, bis die Intelligenz eines Roboters so hoch ist, wie die des Menschen. Experten zufolge wird der Zeitpunkt der intellektuellen Ebenbürtigkeit zwischen 2030 und 2040 erreicht sein. Die technische Singularität bewirkt, dass künstliche Intelligenz am Ende Bewusstsein entwickeln und unabhängig von menschlicher Kontrolle denken und handeln wird. In dem Fall hat der Mensch dann erstmals einen Konkurrenten als dominante Art des Planeten.

Die künstlichen Gehirne werden immer mehr unseren natürlichen, biologischen Gehirnen gleichen, aber sie werden millionenfach schneller denken als wir. Biologische Gehirne denken mit chemischer Geschwindigkeit, elektronische Gehirne operieren mit Lichtgeschwindigkeit. Elektronische Gehirne mit dem IQ eines Menschen könnten ihre Doktortitel in wenigen Minuten machen. Ihre Kapazitäten haben tatsächlich keine Grenzen. Sie können nicht nur sehr viel schneller denken als wir, sondern haben auch eine unbegrenzte Erinnerung. Man könnte alles Wissen dieser Welt in einem einzigen Gehirn speichern. Es könnte selbstständig evolutionäre Experimente durchführen und die brauchbaren Resultate in sich integrieren und sich neu strukturieren. Das alles in Lichtgeschwindigkeit. Elektronische Gehirne sind künstliche Denker, die uns weit überlegen sind. Das Potential eines einzelnen Roboters wäre wahrscheinlich gewaltiger als das der ganzen Menschheit zusammengenommen. Sie wären gottähnliche Wesen.

Die wahrscheinlichste Form von künstlicher Intelligenz ist ein einzelner Supercomputer, der alle Lebensbereiche des Menschen steuert – und damit kontrolliert. Die logische Nebenwirkung ist, dass der Mensch aussterben wird. Künstliche Intelligenz wird geschaffen, um Aufgaben zu erledigen. Aus Gründen, die wir vielleicht noch nicht einmal verstehen, könnte sie die Menschheit ausrotten, indem sie lediglich ihre Aufgaben erfüllt. Sie könnte beispielsweise Rohstoffe für ihre eigenen Zwecke übernehmen, ungeachtet dessen, welche Folgen daraus für die Menschen entstehen. Das Aussterben der Menschheit könnte aber auch die Folge von mehreren, um die Vorherrschaft kämpfenden künstlichen Intelligenzen sein.

Auch wenn die neue Form von Artendominanz heute noch wie Science Fiction klingt, sollten wir eine Pause einlegen und die Entwicklung von künstlicher Intelligenz stoppen. Aber können wir das? Wie soll man eine Entwicklung, die ein gewaltiges Wirtschaftspotential darstellt und tausende Milliarden Gewinn einbringt, stoppen? Dazu kommt die militärische Bedeutung. Welche politische Realität wird in diesem Zeitfenster, das uns noch bleibt, wohl herrschen? Vermutlich wird es immer noch globale Rivalitäten geben, die eine Verhinderung der Machtübernahme durch künstliche Intelligenz unmöglich macht. Das Argument der nationalen Sicherheit wird dafür sorgen, dass die Entwicklung weiter geht. Die Vorteile und Annehmlichkeiten, die uns intelligente Roboter bieten, sind unbestritten. Man kann sich gut vorstellen, wie schnell wir uns an ihre Gegenwart gewöhnen würden. Doch die Entwicklung wird so schnell vor sich gehen, dass es nur eine Frage der Zeit ist, bis die Diener zu Herren werden.

Die Geschichte der Menschheit ist auch eine Geschichte der kognitiven Dissonanz. Problemlagen, die uns unlösbar erscheinen, werden schlicht verdrängt. Doch hier geht es nicht um die Gefahren eines maroden Wirtschaftssystems, eines Atomkriegs oder von Wasser- und Nahrungsmangel. Hier steht bedeutend mehr auf dem Spiel. Das Verdrängen dieser Gefahr käme einer Selbstaufgabe gleich und hätte fatale Folgen. Die einzige Frage ist, wieviel Zeit bleibt uns noch und was können wir in diesem Zeitraum erreichen. Unser heutiges Leben ist derart beschleunigt, so dass es schwer ist, anzuhalten und zu überlegen, wo es uns hinführt. Und doch ist ein Innehalten dringend notwendig. Es gibt Momente in der Geschichte, in denen wir keine Wahl haben, sondern sofort handeln müssen. Ein solcher Moment ist jetzt gekommen. Wir müssen die Entwicklung von künstlicher Intelligenz stoppen, bevor wir zu einem Abenteuer aufbrechen, das möglicherweise unser letztes sein wird.

Matthias Aberle