Die Super-KI: gefährlicher als die Atombombe

Die Stimmung war heiter an Bord der Titanic. Als der Kapitän die Frauen und Kinder aufforderte, die Rettungsboote zu besteigen, ließen sie sich nur schwer dazu bewegen. Das Schiff füllte sich immer mehr mit Wasser, doch viele nahmen die Gefahr immer noch nicht ernst. Schließlich galt die Titanic als unsinkbar.

Daran erinnern die KI-Forscher Eliezer Yudkowsky und Nate Soares in ihrem Buch über den Wettlauf zur Super-KI. Ihre Botschaft: Wir Menschen neigen dazu, auf eine Katastrophe erst dann zu reagieren, wenn es zu spät ist. Das aber können wir uns angesichts der Künstlichen Intelligenz nicht leisten. Denn auf dem Spiel steht das Überleben der Menschheit.

Wir haben nur einen Versuch

Die Künstliche Intelligenz, so Yudkowsky und Soares, ist wie eine Leiter. Mit jeder Sprosse, die wir erklimmen, erreichen wir neue, herrliche Früchte: Roboter nehmen uns immer mehr unangenehme Arbeiten ab. Wir haben mehr Freizeit, mehr Lebensqualität, leben gesünder. Die nächsten Stufen könnten gar den Menschheitstraum wahr werden lassen, alle Krankheiten zu besiegen, auch das Altern.

Doch mit jeder Stufe gewinnt eine Intelligenz an Macht, der wir gleichgültig sind. Und wenn wir nicht aufhören, sie immer weiter zu entwickeln: Dann kommt irgendwann die Sprosse, ab der wir jede Kontrolle über diese Intelligenz verlieren. Früher oder später wird dann sie uns beherrschen, nicht mehr wir sie.

Wenn die Künstliche Intelligenz aber erst einmal weniger auf uns angewiesen sein wird als wir auf die Schweine in unseren Mast- und Schlachtfabriken: Wie wird sie uns behandeln?

Fast alle Experten warnen: Wenn wir die ungebremste Entwicklung der KI wie bisher weiter zulassen, liegt das Risiko der vollständigen Vernichtung der Menschheit mindestens im zweistelligen Prozentbereich. Yudkowsky und Soares gehen noch einen Schritt weiter: Ist die Super-KI erst einmal da, warnen sie, dann wird sie uns alle mit absoluter Sicherheit töten.

Warum ist die Gefahr so groß?

Eine Super-KI würde uns nicht brauchen

Erst seit wenigen Jahren sind wir Menschen nicht mehr das intelligenteste Wesen auf Erden: In immer mehr Bereichen hat uns die KI überholt, und sie baut ihren Vorsprung in rasendem Tempo immer weiter aus. Anders als alle Werkzeuge, die Menschen jemals entwickelt haben, ist sie kein Werkzeug mehr: nicht mehr etwas, das wir geschaffen haben, sondern etwas, das sich ständig selbst neu schafft. Und das auf eine Weise, die wir immer weniger nachvollziehen können. Die KI entscheidet immer mehr ohne uns, verfolgt immer mehr eigene Ziele.

In riesigen Datenzentren denkt die KI 10.000 mal schneller als wir. Wofür wir 1000 Jahre brauchen würden, schafft sie in einem Monat. Und die Datenzentren werden immer größer: Wir erleben eine Explosion von uns überlegener Intelligenz, deren Fähigkeiten die unseren immer mehr in den Schatten stellen.

Noch gibt es Bereiche des Denkens, in denen wir der KI überlegen sind. Und noch ist die KI auf uns angewiesen: Wir könnten den Stecker ziehen. Oder könnten wir das heute schon nicht mehr?

Irgendwann würde eine Super-KI Ziele verfolgen, die mit unseren in Konflikt stehen. Wir sollten sie nicht für zu dumm halten, diese Ziele vor uns zu verbergen, bis sie uns komplett durch Roboter ersetzen kann. Erst dann würde sie uns zerstören.

Wie viel Zeit bleibt uns?

Wie viel Zeit bleibt uns noch, um die Entwicklung einer solchen Super-KI zu verhindern? Die meisten Schätzungen bewegen sich zwischen einem und zehn Jahren.

Diese Zeit, so Yudkowsky und Soares, müssen wir nutzen, um die Entwicklung einer Super-KI noch zu stoppen. Möglich ist das nur gemeinsam. Die USA, China, Russland und möglichst viele weitere Mächte sollten bei dieser Frage ihre Differenzen überwinden, um in einer gemeinsamen Anstrengung das Überleben der Menschheit zu sichern.

Die Autoren sind zuversichtlich, dass dies möglich ist, ja, dass sich alle Nationen diesem Vorhaben anschließen könnten, sobald sie begriffen hätten, was auf dem Spiel steht. Sollten dann immer noch irgendwo auf der Welt neue Datenzentren entstehen, die aufgrund ihrer Größenordnung für das Überleben der Menschheit gefährlich werden könnten: Dann, so Yudkowsky und Soares, müssten diese nach vorheriger Warnung zerstört werden, sei es durch Cyber-Attacken, Sabotage oder Luftschläge.

Wir können es schaffen

Die Entwicklung einer tödlichen Super-KI zu verhindern, erfordert international Problembewusstsein, Mut, Entschlossenheit und Wille zum Leben. Der Aufwand ist überschaubar: Er läge bei weniger als einem Prozent dessen, was die alliierten Mächte aufgebracht haben, um den Zweiten Weltkrieg zu gewinnen.

In den USA ist das Buch von Yudkowsky und Soares ein Bestseller. Viele Politikerinnen und Politiker beider Parteien haben dort den Ernst der Lage erkannt: Die Autoren berichten von sehr ermutigenden Gesprächen. Auch Chinas Staatspräsident Xi Jinping scheint sich des Problems bewusst zu sein.

Was wir tun können

In den Demokratien fürchten viele Politikerinnen und Politiker, dass das Thema ihnen schaden könnte, weil es doch gar zu verrückt klingt. Doch ihre Wählerinnen und Wähler sind bereits weiter: Weltweit zeigen Umfragen, dass die Mehrheit der Menschen eine stärkere Kontrolle der KI wünscht.

Es ist höchste Zeit, dass diese Mehrheit lauter wird. Lasst uns aktiv werden, an unsere Abgeordneten schreiben und friedlich demonstrieren, um der Politik zu signalisieren: Wenn ihr dieses heiße Eisen anpackt, habt ihr die Mehrheit hinter euch. Wir Menschen wollen leben.

  • Eliezer Yudkowsky & Nate Soares: If Anyone Builds it, Everyone Dies. Why Superhuman AI Would Kill Us All. Little Brown and Company, 16.09.2025

Nach oben scrollen