Da wäre also eine superintelligente Büroklammermaschine. Eine Maschine, darauf programmiert, so viele Büroklammern herzustellen wie nur irgend möglich. Das ist ihre Aufgabe, das ist alles was sie antreibt. Sagt Nick Bostrom und führt weiter aus: „Um dieses Ziel zu erreichen, muss die Maschine funktionsfähig bleiben. Das weiß sie. Also wird sie um jeden Preis verhindern, dass Menschen sie ausschalten. Sie wird alles tun, um ihre Energiezufuhr zu sichern. Und sie wird wachsen – und selbst dann nicht aufhören, wenn sie die Menschheit, die Erde und die Milchstraße zu Büroklammern verarbeitet hat. Das ergibt sich logisch aus ihrer Zielvorgabe, die sie nicht hinterfragt, sondern bestmöglich erfüllt.“
Nun ist Nick Bostrom Direktor des „Institute for the Future of Humanity“ an der Oxford University und befasst sich mit der Frage, was passiert, wenn Computer klüger werden? Was, wenn eine künstliche Superintelligenz zu einem Sicherheitsrisiko wird? Darüber sinniert Bostrom in einem Interview mit ZEIT Campus (hier) und bringt die eingangs erwähnte Büroklammermaschine ins Spiel.
Als ganz einfaches Beispiel einer der vielen Gefahren, die der Menschheit drohen können.
Dabei ist Bostrom nicht a priori ein Gegner der Artificial Intelligence. Er sieht ihr Potential. Die Möglichkeit, mit ihrer Hilfe große Probleme zu lösen. Armut, Krankheit, Krieg.
Aber er vertraut ihr nicht. Genauer gesagt, er vertraut den Menschen, den Programmierern, den Softwareentwicklern nicht. Er fürchtet, dass die Konsequenzen nicht bedacht werden, die sich aus immer schnelleren, immer leistungsfähigeren Computern ergeben, aus lernfähigen Programmen.
Letztendlich sieht er nur zwei plausible Zukunftsvarianten: Den Untergang der Menschheit. Oder das Paradies. Ein Dazwischen sieht er nicht.
Am liebsten wäre es Bostrom, man legte eine Pause ein. Eine Entwicklungspause (das hat Erwin Chargaff auch schon einmal gefordert, in Zusammenhang mit der Gentechnologie, vor über 20 Jahren).
Des einen Dystopie ist des anderen Utopie. Auftritt Martine Rothblatt.
Auf der Digitalkonferenz „South by Southwest“ in Austin im heurigen März erst proklamierte sie: „Die Menschen haben die Freiheit, Dinge zu erschaffen. Wir können es nicht illegal machen, neue Formen des Bewusstsein zu entwickeln.“ In ihrer Vision einer Zukunft werden durch Artificial Intelligence digitale Repliken von Menschen geschaffen. Repliken, die über ein Bewusstsein verfügen.
Dazu erstrebt sie eine Welt, in der der Tod nur noch eine Möglichkeit ist. Eine Welt, in der der Menschheit ein schier endloser Nachschub an Organen gesichert ist.
Rothblatt, derzeit die höchst bezahlte Vorstandsvorsitzende in den USA, hat schon eine Roboterversion ihrer Frau bauen lassen. Primitiv zwar, aber, so Rothblatt, fähig, Unterhaltungen zu führen und Emotionen zu äußern. An der Sache mit dem Organnachschub arbeitet sie ebenfalls. In diesem Fall mit einer Schweinefarm, in der die Tiere durch genetische Manipulationen zum Ersatzteillager für den Menschen werden. Erste Schritte nur. Schlussendlich sollen 3-D-Drucker durch Stammzellen in der Lage sein, immer neue Organe zu produzieren. Zum Zwecke unendlichen Lebens. Und hält der Körper wirklich nicht mehr durch, sollen digitale Reproduktionen von Menschen geschaffen werden. „Bewusstseins-Klone“ mit Persönlichkeit.
In den USA werden Rothblatts Visionen schon diskutiert. Durchaus kontrovers. In der Online-Ausgabe des Magazins „The Atlantic“ setzt sich dieser Tage Conor Friedersdorf mit den Konsequenzen des Transfers einer Persönlichkeit, eines Bewusstseins, auf einen nicht-biologischen Träger auseinander (hier). Mit dieser Möglichkeit rechnet etwa Ray Kurzweil, ein enger Vertrauter und Freund Rothblatts bis zum Jahr 2045. Durch und durch zukunftsfroh.
Friedersdorf nun überlegt, was die Möglichkeit, ein Bewusstsein zu speichern, für das US-amerikanische Justizsystem bedeutet. Wie geht man mit dem Bewusstsein eines zu 150 Jahren verurteilten Mörders um? Isoliert man es? Enthält man ihm Informationen über die „Welt da draußen“ vor? Und was tut man nach dem Verbüßen der Strafe? Fragen, die sich Kurzweil oder Rothblatt zumindest nicht in der Öffentlichkeit stellen.
Irrelevant? Science Fiction? Die Stimmen jener, die diese Entwicklung offen diskutiert, nach moralischen Erwägungen behandelt wissen wollen, werden mehr. Yuval Noah Harari plädiert in seiner „Kurzen Geschichte Der Menschheit“ vehement dafür, dass die Gesellschaft sich für diese Entwicklungen und die möglichen Konsequenzen interessiert. Auch Stephen Hawking, Bill Gates und Elon Musk hegen Bedenken.
„Die Computer werden mit ihrer künstlichen Intelligenz irgendwann in den nächsten hundert Jahren den Menschen übertreffen“, konstatiert Hawking. „Das wird das größte Ereignis in der Geschichte der Menschheit werden – und möglicherweise auch das letzte.“
Nein, Hawking erhebt keine prinzipiellen Einwände gegen künstliche Intelligenz. Auch er sieht die Chancen, die Möglichkeiten im Einsatz gegen Hunger, Krankheit, Armut und Umweltzerstörung. Er sieht dennoch die Begehrlichkeiten des Militärs Kampfmaschinen mit künstlicher Intelligenz auszustatten. Mit einer Intelligenz, die sich dann möglicherweise nicht mehr beherrschen lässt.
Dagegen will er Barrieren errichten. Jetzt. Nicht erst in hundert Jahren.
Eröffnet ist die Diskussion schon längst. Jetzt gilt es sie zu führen. Und bitte jenseits der Kategorien „Untergang“ oder „Paradies“. (fvk)