Dr. Matthias Uhl leitet die neue Nachwuchsforschungsgruppe „Ethik der Digitalisierung“ an der TU München. Im Interview führt er aus, wieso er die feuilletonistische Angst vor Künstlicher Intelligenz (KI) für übertrieben hält – und warum Algorithmen gerechter sein können als der Mensch.
26. Februar 2019
|
Lesedauer: ca. 5 Min.
Bild: © TheDigitalArtist/pixabay.com
CANCOM.info: Laut einer Studie der Bertelsmann-Stiftung vertreten 87 Prozent der Befragten die Ansicht, dass Menschen gerechtere Entscheidungen treffen können als Algorithmen. Gehören Sie zu dieser Gruppe?
Dr. Matthias Uhl: Nein.
CANCOM.info: Warum nicht?
Dr. Matthias Uhl: Meine Intuition sagt mir, dass es an vielen Stellen gut wäre, Algorithmen anstatt Menschen entscheiden zu lassen.
CANCOM.info: Was wären das für Stellen?
Dr. Matthias Uhl: Große Vorteile ergeben sich etwa im Recruiting. Sogenannte Implicit Association Tests belegen, dass wir Vorurteile gegenüber dem Fremdartigen haben. Auch wenn wir auf die Frage „Hast du Vorurteile?“ natürlich mit Nein antworten würden. Wenn man das mal akzeptiert hat, dann sieht man sehr viel Potenzial für Algorithmen.
CANCOM.info: Können Algorithmen nicht auch Vorurteile auslösen? Es steckt ja immer ein Programmierer hinter dem Algorithmus.
Dr. Matthias Uhl: Ja, müssen sie aber nicht. Der Mensch hingegen schon, weil er nicht über sich selbst hinauswachsen kann.
CANCOM.info: Nehmen wir das Beispiel autonomes Fahren: Es kommt zu einer Unfallsituation und das Auto müsste entscheiden: Überfahre ich den rechts oder links? Und die KI ist so programmiert, dass es den rechten Menschen als schlecht und den linken als gut erkennt. Inwieweit sollen die Algorithmen nun entscheiden, welchen Menschen sie überfahren?
Dr. Matthias Uhl: Sollen sie nicht. Wir dürfen nicht sagen: Das ist der Bankräuber, und das ist der Chefarzt, also überfahre ich den Bankräuber. Wir dürfen Leben nicht gegeneinander aufwiegen. Das hat zumindest das Bundesverfassungsgericht festgestellt, als es das Flugsicherungsgesetz für verfassungswidrig erklärt hat.
CANCOM.info: Und dieses Dilemma sollen Algorithmen lösen?
Dr. Matthias Uhl: Ja. Algorithmen bieten einen entscheidenden Vorteil: Man kann sie zwingen, bestimmte Charakteristika der Person zu ignorieren. Einen Menschen können wir niemals wirksam dazu zwingen. Sie können einem Soldaten befehlen: Schieße niemals auf einen entwaffneten Gegner! Ob er sich in einer konkreten Situation daran hält, ist eine ganz andere Frage. Eine Drohne wird den Befehl ausführen. Aber natürlich verweigert sie auch keine unmoralischen Befehle. Das ist eben die Ambivalenz.
CANCOM.info: Welche Charakteristika könnte ein Algorithmus zum Beispiel ignorieren?
Dr. Matthias Uhl: Das Alter etwa, um Diskriminierungen zu vermeiden. Auch wenn der Algorithmus dieses durch die Gesichtserkennung erkennen könnte. Das könnten wir dem Algorithmus sagen und er könnte danach handeln. Das heißt, wir sind jetzt in einer Situation, in der wir ihm vorgeben können, welche Faktoren er bei der Urteilsfindung explizit zu berücksichtigen hat und welche nicht. Und er wird sich daran auch halten – Willensschwäche ist für ihn kein Thema.
Seite 1