12. Oktober 2018 | pArtikel drucken | kKommentieren

So gerät Künstliche Intelligenz nicht außer Kontrolle

Die Entwicklung von KI-Technologien benötigt Regeln, damit gegenwärtige und zukünftige Programme kein unerwünschtes Verhalten zeigen. Das geht aus einem kürzlich veröffentlichten Paper der KI-Schmiede DeepMind hervor.

Das britische Forschungslabor hat dabei drei Problemfelder identifiziert, um eine sichere Künstliche Intelligenz zu gewährleisten: Spezifikation, Robustheit und Sicherheit (engl. specification, robustness and assurance).

Drei Prinzipien für die Gestaltung von KI

Spezifikation beleuchtet die Frage, was man mit der KI eigentlich erreichen will und wie man diesen Wunsch formuliert. Im Idealfall verhält sich Künstliche Intelligenz ganz nach den Wünschen des Entwicklers und Konzepters (sog. ideale Spezifikation).  Probleme treten dann auf, wenn sich die ideale Spezifikation von der sog. offenbarten Spezifikation (wie die KI letztendlich handelt) unterscheidet. Das Konzept der Spezifikation stellt demnach sicher, dass das Verhalten eines KI-Systems mit den wahren Absichten des Entwicklers übereinstimmt.

Das Prinzip der Robustheit soll dafür bürgen, dass Künstliche Intelligenz auch bei Störungen innerhalb sicherer Grenzen funktioniert. Störungen umfassen dabei unvorhergesehene Ereignisse und manipulative Angriffe, die von außen auf das KI-System einwirken.

Zudem soll das Konzept der Sicherheit garantieren, dass der Mensch zu jedem Zeitpunkt im laufenden Betrieb das KI-System verstehen und kontrollieren kann. Damit soll jede Handlung eines KI-Agenten nachvollziehbar sein und im Eskalationsfall auch unterbrochen werden können.

Die Forscher räumen zwar ein, dass solche Sicherheitsbedenken in der heutigen Zeit vielleicht verfrüht kommen, appellieren aber an die Zukunft. Sie führen als Beispiel an, wenn Programmiersprachen der ersten Stunde mit ähnlichen Sicherheitsprinzipien entwickelt worden wären, hätte Computersicherheit heutzutage eine viel stärkere Position.

Wie kann man Künstliche Intelligenz kontrollieren?

Ähnliche Ansätze der Kontrolle von KI verfolgt die gemeinnützige Initiative AlgorithmWatch. Sie hat sich zum Ziel gesetzt, algorithmische Entscheidungsprozesse und deren Auswirkungen auf menschliches Verhalten zu analysieren. Diese bergen ihrem Manifest zufolge enorme Gefahren als auch Chancen. Seit Juni 2018 berät AlgorithmWatch die EU in der KI-Expertengruppen AI HLG in ethischen Fragen.

Die Mathemathik-Dozentin Hannah Fry hat einen pragmatischen Ansatz dargestellt, wie man KI kontrollieren könnte. Sie bezieht sich in einem Gastbeitrag des Guardian auf den Politiker Tony Benn, der fünf Fragen an die Mächtigen dieser Welt formulierte. Fragen, die man ihrer Meinung auch moderner KI stellen sollte. Darunter fallen: Welche Macht hast du? Woher beziehst du sie? In wessen Interesse übst du sie aus? Wem bist du verantwortlich? Und: Wie werden wir dich wieder los? Sie begründet dies damit, dass man auch über die Fehler denken sollte, die Entwickler machen.

© Franck V./unsplash.com

Hier schreibt Patrick Füngerlings für Sie

Mehr Artikel vom Autor