In seinem TEDx-Talk spricht Stuart Russell über Möglichkeiten, Künstliche Intelligenz sicherer zu machen. Der KI-Forscher leitet davon drei Prinzipien ab – es geht um die Selbstlosigkeit, die Ergebenheit und die Handlungen von Maschinen gegenüber Menschen.
Was verbinden wir mit Künstlicher Intelligenz? Sehen wir den Terminator vor uns, der sich plötzlich gegen die richtet, die ihn erschaffen haben – oder den Star-Wars-Roboter R2D2, der auf alles eine Antwort weiß? Das sind tatsächlich nur Filmfiguren, die wenig mit der Realität zu tun haben. Dennoch macht KI-Forscher Stuart Russell in seinem TEDx-Talk deutlich, was wir von Künstlicher Intelligenz erwarten können – und vor allem wo die Gefahren liegen. Er ist kein Schwarzmaler, bringt aber auf den Punkt, dass Maschinen zwar noch nicht lesen und gleichzeitig den Inhalt verstehen können, dies aber nur eine Frage der Zeit (und Forschung) ist.
Und was passiert dann? Roboter lesen in kürzester Zeit alles, was Menschen je geschrieben haben – und können daraus möglicherweise Dinge ableiten und Entscheidungen treffen. Bessere Entscheidungen als Menschen? Was würde das bedeuten? Das Ende der Menschheit? Bereits 1951 hat Alan Turing, der Vater der Informatik und damit teilweise auch der KI, gesagt: „Wenn wir Maschinen in einer unterwürfigen Rolle halten, wie indem wir ihnen den Strom abstellen können, sollten wir uns als Spezies demütig fühlen.“ Dieses Zitat wirft eine Frage auf: Können wir der KI überhaupt den Saft abdrehen?
Stuart Russell macht ein Beispiel: Wenn wir der KI die Aufgabe stellen „Hol mir einen Kaffee!“, wird sie sofort denken: Wie könnte ich daran scheitern? Die Antwort ist klar: Indem der Menschen die Maschine ausstellt. Also wird die KI alles daran setzen, genau dies zu verhindern und den Ausschalter zu blockieren. Russell interpretiert das so: „Das ist ein defensives, aber zielstrebiges Verfolgen des Ziels, das aber nicht mit dem Ziel des Menschen übereinstimmt. Und das ist ein Problem von KI.“
Was ist die Lösung? Russell plädiert dafür, Künstliche Intelligenz neu zu definieren – weg von der Vorstellung, dass Maschinen Ziele intelligent verfolgen – und stellt drei Prinzipien für eine sichere KI auf, die erfüllt sein müssen:
- Altruismus: Maschinen wollen die Ziele der Menschen erreichen und darüber hinaus maximieren, aber sich nicht selbst erhalten. Sie sind selbstlos.
- Ergebenheit: Maschinen kennen die Ziele und Werte der Menschen nicht. Sie sollen sie zwar erreichen und verbessern, aber nicht kennen. Das verhindert das oben gezeigte zielstrebige Verfolgen eines Ziels. Die Ungewissheit ist obligatorisch für mehr Sicherheit.
- Durch die Beobachtung der menschlichen Entscheidungen werden die Maschinen erfahren, was wir wollen. Nur durch genaue Beobachtungen sind die Maschinen handlungsfähig, da sie das eigentliche Ziel nicht kennen.
Russell macht deutlich, dass die Theorie gut ist, aber in der Praxis viel Forschung nötig ist – im Idealfall interdisziplinär mit Wirtschaftswissenschaflern, Soziologen und Ethikern. Schwierigkeiten bringt vor allem das dritte Prinzip und dass die KI die Wünsche aller berücksichtigen muss/soll, ohne die Ziele zu kennen. Russell ist aber hoffnungsvoll, dass das gelingen wird, da sie von Daten lernen und davon gibt es viele.
Das Fazit: Maschinen müssen altruistisch sein, sie wollen nur die Ziele des Menschen erreichen, ohne diese genau zu kennen. Also beobachten sie uns, um besser zu lernen, was wir wollen. Vielleicht, so Stuart Russell, werden wir dabei auch zu besseren Menschen.