26. Februar 2019 | pArtikel drucken | k1 Kommentar

„Ich mache mir mehr Sorgen, dass ich Krebs bekomme“

Dr. Matthias Uhl leitet die neue Nachwuchsforschungsgruppe „Ethik der Digitalisierung“ an der TU München. Im Interview führt er aus, wieso er die feuilletonistische Angst vor Künstlicher Intelligenz (KI) für übertrieben hält – und warum Algorithmen gerechter sein können als der Mensch. 

CANCOM.info: Laut einer Studie der Bertelsmann-Stiftung vertreten 87 Prozent der Befragten die Ansicht, dass Menschen gerechtere Entscheidungen treffen können als Algorithmen. Gehören Sie zu dieser Gruppe?

Dr. Matthias Uhl: Nein.

CANCOM.info: Warum nicht?

Dr. Matthias Uhl: Meine Intuition sagt mir, dass es an vielen Stellen gut wäre, Algorithmen anstatt Menschen entscheiden zu lassen.

CANCOM.info: Was wären das für Stellen? 

Dr. Matthias Uhl: Große Vorteile ergeben sich etwa im Recruiting. Sogenannte Implicit Association Tests belegen, dass wir Vorurteile gegenüber dem Fremdartigen haben. Auch wenn wir auf die Frage „Hast du Vorurteile?“ natürlich mit Nein antworten würden. Wenn man das mal akzeptiert hat, dann sieht man sehr viel Potenzial für Algorithmen.

CANCOM.info: Können Algorithmen nicht auch Vorurteile auslösen? Es steckt ja immer ein Programmierer hinter dem Algorithmus.

Dr. Matthias Uhl: Ja, müssen sie aber nicht. Der Mensch hingegen schon, weil er nicht über sich selbst hinauswachsen kann.

CANCOM.info: Nehmen wir das Beispiel autonomes Fahren: Es kommt zu einer Unfallsituation und das Auto müsste entscheiden: Überfahre ich den rechts oder links? Und die KI ist so programmiert, dass es den rechten Menschen als schlecht und den linken als gut erkennt. Inwieweit sollen die Algorithmen nun entscheiden, welchen Menschen sie überfahren?

Dr. Matthias Uhl: Sollen sie nicht. Wir dürfen nicht sagen: Das ist der Bankräuber, und das ist der Chefarzt, also überfahre ich den Bankräuber. Wir dürfen Leben nicht gegeneinander aufwiegen. Das hat zumindest das Bundesverfassungsgericht festgestellt, als es das Flugsicherungsgesetz für verfassungswidrig erklärt hat.

CANCOM.info: Und dieses Dilemma sollen Algorithmen lösen? 

Dr. Matthias Uhl: Ja. Algorithmen bieten einen entscheidenden Vorteil: Man kann sie zwingen, bestimmte Charakteristika der Person zu ignorieren. Einen Menschen können wir niemals wirksam dazu zwingen. Sie können einem Soldaten befehlen: Schieße niemals auf einen entwaffneten Gegner! Ob er sich in einer konkreten Situation daran hält, ist eine ganz andere Frage. Eine Drohne wird den Befehl ausführen. Aber natürlich verweigert sie auch keine unmoralischen Befehle. Das ist eben die Ambivalenz.

CANCOM.info: Welche Charakteristika könnte ein Algorithmus zum Beispiel ignorieren?

Dr. Matthias Uhl: Das Alter etwa, um Diskriminierungen zu vermeiden. Auch wenn der Algorithmus dieses durch die Gesichtserkennung erkennen könnte. Das könnten wir dem Algorithmus sagen und er könnte danach handeln. Das heißt, wir sind jetzt in einer Situation, in der wir ihm vorgeben können, welche Faktoren er bei der Urteilsfindung explizit zu berücksichtigen hat und welche nicht. Und er wird sich daran auch halten – Willensschwäche ist für ihn kein Thema.

CANCOM.info: Entwickler von autonomen Fahrzeugen vertreten die Ansicht: Wir können solche kritischen Entscheidungen wie das Überfahren von Menschen nicht treffen, wir müssen auf das Zufallsprinzip setzen…

Dr. Matthias Uhl: …was eine Menge Sinn ergibt.

CANCOM.info: Also würden Sie dem zustimmen?

Dr. Matthias Uhl: Wenn wir nicht diskriminieren wollen, ist der Zufall zumindest die einzige Möglichkeit, die mir einfällt.


Bild: © Andreas Heddergott

„In manchen Bereichen ist es gar nicht schlecht, dass der Faktor Mensch zurückgedrängt wird.“

Dr. Matthias Uhl, Leiter der Nachwuchsforschungs­gruppe „Ethik der Digitalisierung“


CANCOM.info: Wir sind bisher davon ausgegangen, dass stets der Mensch die KI kontrolliert. Und wenn das nicht mehr der Fall wäre? Mehrere KI-Forscher halten eine Superintelligenz für möglich, die sich selbst reguliert und den Menschen durch ihre Überlegenheit in seiner Existenz gefährdet.

Dr. Matthias Uhl: Ich nehme zur Kenntnis, dass eine Menge sehr intelligenter Leute diese Gefahr sehen. Ich persönlich halte es für wesentlich wahrscheinlicher, dass wir uns durch die Vermüllung der Meere die Lebensgrundlage entziehen, als dass uns eine Super-KI in 500 Jahren zugrunde richtet.

CANCOM.info: Sie sind der Meinung, die Super-KI liegt in weiter Ferne.  Aber nehmen wir mal an, dass wir diesen Superroboter schon in der Gegenwart bauen können. Würden Sie das zulassen wollen?

Dr. Matthias Uhl: Wir können nicht verhindern, dass sich Leute ihre Gedanken über den Superroboter machen und in ihrer Garage daran schrauben. Natürlich können wir den Universitäten verbieten, am Thema KI zu forschen. Das möchte ich aber nicht. Ich halte die Forschung am Thema KI für unvermeidbar – auch wenn das kleine Restrisiko besteht, sich dabei selbst zu vernichten. Wir verbieten ja auch keine Schwangerschaften, obwohl jedes Neugeborene mit kleiner Wahrscheinlichkeit ein neuer Hitler ist.

CANCOM.info: Sie wirken recht entspannt, was die potentielle Gefahr durch KI angeht.

Dr. Matthias Uhl: Ich mache mir mehr Sorgen, dass ich Krebs bekomme, ja.

CANCOM.info: Im chinesischen Social Credit System besteht die Gefahr, dass sich Menschen in Zukunft dem Algorithmus anpassen, damit sie besser gerankt werden. Wäre das ein Szenario, das man in Deutschland unbedingt verhindern müsste? 

Dr. Matthias Uhl: In Deutschland befürwortet etwa ein Fünftel dieses Scoring-System wie in China. Eine eindeutige Mehrheit ist also dagegen. Ich finde dieses Scoring-System furchtbar. Aber meine Meinung ist bedingt relevant. Wir sind alle ständig unterschiedlicher Meinung. Deshalb brauchen wir eine empirische Ethik, die den Durchschnittswert der verschiedenen Meinungen ermittelt und auf dieser Grundlage Handlungsempfehlungen ableitet – etwa für die Politik.

CANCOM.info: Ist das der richtige Weg?

Dr. Matthias Uhl: Wir haben kaum eine andere Chance. Hier stellt sich das altbekannte Problem: Demokratie ist irgendwie doof, aber was wäre die Alternative? Einstimmigkeit kriegen wir nicht hin. Das grundsätzliche Problem an dem Thema ist, dass wir bei Maschinen häufig per se ein diabolisches Element hineininterpretieren. Natürlich gibt es Probleme – zum Beispiel, dass Vorurteile durch Algorithmen zementiert werden. Aber wir müssen sehr viel stärker in die einzelnen Anwendungsbereiche gucken. Welche Probleme und Gefahren da entstehen und wie wir sie institutionell lösen können. Dafür brauchen wir empirische Forschung. Sie zeigt uns auch, wie robust oder fragil Vorbehalte gegen die Technik sind. Nehmen Sie das Beispiel Altersheim: Wenn die Leute dort furchtbare Vorstellungen gegenüber Roboter haben und dann sehen, wie ein Pflegeroboter tatsächlich aussieht, sagen sie vielleicht: Ach, die sind eigentlich ganz niedlich. Dann erodiert dieser komplette Vorbehalt.

CANCOM.info: Dieser diabolische Aspekt, die wir in Maschinen hineininterpretieren, liegt ja vielleicht daran, dass bestimmte Bereiche entmenschlicht werden und wir das nicht wollen.

Dr. Matthias Uhl: OK, aber ist das wirklich in allen Fällen ein Problem? Ich sehe, wie gesagt, Bereiche, in denen es gar nicht schlecht ist, dass der Faktor Mensch zurückgedrängt wird. Wenn Sie zum Beispiel verstanden haben, dass menschliche Empathie eben auch eine Voraussetzung für Sadismus ist, dann würden Sie sagen: Eine Entemotionalisierung, ein Herausnehmen von menschlichen Eigenschaften aus Entscheidungsprozessen, ist in bestimmten Bereichen wie der Kriegsführung vielleicht nicht nur schlecht. Wir Menschen sind nicht nur zu erstaunlich Gutem fähig sondern auch zu erstaunlich Schlechtem. Diese ethische Diskussion wird mir zu wenig geführt. Dass wir auch über Verbesserungen durch Algorithmen reden. Und nicht nur darüber, wie böse sie sind.

Über die Nachwuchsforschungsgruppe „Ethik der Digitalisierung“

Die Nachwuchsforschungsgruppe „Ethik der Digitalisierung“ an der TU München verfolgt das Ziel, die Vorstellungen der Bevölkerung zum Thema Digitalisierung zu erforschen und politische Entscheidungsträger darüber zu informieren. Für die Forschung steht besonders die Frage im Mittelpunkt, wie digitale Technologien akzeptiert und ethisch genutzt werden.

Gefördert wird die Nachwuchsforschungsforschungsgruppe von der Plattform „Zentrum Digitalisierung.Bayern“, die nach offiziellen Angaben als „Impulsgeber in Zusammenarbeit mit Wirtschaft, Wissenschaft, Verbänden und öffentlichen Maßnahmen“ wirkt.

Weitere Informationen zum Thema Algorithmus, inklusive der wichtigsten Ergebnisse der im Interview erwähnten Bertelsmann-Studie, finden Sie hier.

© TheDigitalArtist/pixabay.com

 

Hier schreibt Christian Schinko für Sie

Mehr Artikel vom Autor

Lesen Sie weiter auf CANCOM.info

Cookies auf dieser Website

Cookies sind für die korrekte Funktionsweise einer Website wichtig. Damit wir verstehen, wie unsere Seite im Allgemeinen genutzt wird und wir Ihren Besuch noch interessanter und personalisierter gestalten können, setzen wir Cookies und andere Technologien ein. Bitte treffen Sie Ihre bevorzugte Cookie-Auswahl, um fortfahren zu können. Hilfe.

Wählen Sie eine Option, um fortzufahren

Ihre Auswahl wurde gespeichert!

Sie können Ihre Cookie-Einstellung jederzeit ändern. Eine Erläuterung der einzelnen Einstellungen finden Sie in der Hilfe.

COOKIE EINSTELLUNGEN

Wir respektieren Ihre Privatsphäre und den Datenschutz. Damit wir verstehen, wie unsere Seite im Allgemeinen genutzt wird und wir Ihren Besuch noch interessanter und personalisierter gestalten können, sammeln wir Daten über die Nutzung dieser Seite. Hierzu verwenden wir Cookies. Wir teilen außerdem Informationen über Ihre Nutzung unserer Website mit unseren Social-Media-, Werbe- und Analytikpartnern gemäß unserer Datenschutzerklärung. Sie können Ihre Präferenzen in den Cookie-Einstellungen verwalten und jederzeit ändern.

Achtung: Wenn Sie noch keine 16 Jahre alt sind deaktivieren Sie bitte unbedingt alle Cookies die nicht notwendig sind, da für das Tracken durch Cookies von Kindern unter 16 Jahren die Zustimmung eines Erziehungsberechtigten vorliegen werden muss.

  • Alle Cookies akzeptieren:
    Diese Funktion erlaubt alle Cookies für Tracking- und Seiten-Analyse, Cookies zur Personalisierung der Website oder Social Media Dienste. Dazu zählen auch Cookies von externen Anbietern, wie zum Beispiel Youtube oder Vimeo, um das Abspielen von Videos zu ermöglichen sowie Cookies, die nicht ausschließlich für den Betrieb der Webseite notwendig sind. Das sind Cookies für Marketing, Statistik und andere.
  • Nur Cookies erlauben, die von dieser Webseite gesetzt werden:
    Hierbei werden zusätzlich zu den notwendigen Cookies weitere Cookies geladen, die vom Websitebetreiber für diese Webseite genutzt werden. Das sind zum Beispiel Cookies, die die Art beeinflussen, wie sich eine Webseite verhält oder aussieht (z. B. Ihre bevorzugte Sprache oder die Region in der Sie sich befinden).
  • Nur Cookies akzeptieren, die für die Funktion der Seite notwendig sind:
    Notwendige Cookies helfen dabei, eine Webseite nutzbar zu machen, indem sie Grundfunktionen wie Seitennavigation und Zugriff auf sichere Bereiche der Webseite ermöglichen. Die Webseite kann ohne diese Cookies nicht richtig funktionieren. Es werden bei dieser Option keine Cookies gesetzt, außer die aus technischen Gründen notwendig sind.

Zurück