Ethik für autonomes Fahren: Zwischen Gutmenschen-KI und menschlicher Moral

Autonome Fahrzeuge sollen zur Verkehrssicherheit beitragen, es fehlt jedoch die menschliche Ethik. Amerikanische Forscher beschäftigten sich mit der Frage "Was wäre, wenn...?" und haben vorgeschlagen wie KI ethisches Verhalten "lernen" kann.
Titelbild
Ein Fahrer bei einem Versuch für autonomes Fahren.Foto: Daniel Naupold/Illustration/dpa
Von 9. Juli 2020

Autonome Fahrzeuge können nur in dem Rahmen entscheiden, den Programmierer ihnen zuvor mit auf den Weg geben. Ein oft verwendetes Beispiel ist folgendes Szenario: Angenommen, es gäbe ein autonomes Fahrzeug ohne Passagiere, das kurz davor steht, in ein Auto mit fünf Personen zu krachen. Es kann den Aufprall vermeiden, indem es auf den Bürgersteig ausweicht, aber dort würde es dann einen Fußgänger treffen.

Die meisten Ethikdiskussionen in diesem Szenario konzentrieren sich auf die Frage, ob die KI des autonomen Fahrzeugs egoistisch (Schutz des Fahrzeugs und seiner Ladung) oder utilitaristisch (Auswahl der Handlung, die die wenigsten Menschen schädigt) sein sollte, auch wenn es dann mitunter seinen eigenen Fahrer schadet. Doch was passiert, wenn jemand das Auto für bösartige Zwecke entführt und Böses beabsichtigt?

Gute schlechte Handlungen und eine autonome Welt voller Gutmenschen

„Die derzeitigen Ansätze zur Ethik und zu autonomen Fahrzeugen sind eine gefährliche Vereinfachung. Die [menschliche] moralische Beurteilung ist komplexer als das“, sagt Veljko Dubljević, Assistenzprofessor an der North Carolina State University. „Was ist zum Beispiel, wenn die fünf Personen im Auto Terroristen sind? Und was, wenn sie die KI-Programmierung absichtlich ausnutzen, um den nahegelegenen Fußgänger zu töten oder andere Menschen zu verletzen?“

„Mit anderen Worten“, so Prof. Dubljević weiter, „der vereinfachende Ansatz, der gegenwärtig verwendet wird, um ethische Überlegungen bei der KI und autonomen Fahrzeugen anzusprechen, berücksichtigt keine böswillige Absicht. Und das sollte sie.“

Als Alternative schlägt er das sogenannte „Agent-Deed-Consequence“-Modell als Rahmen vor. Jeder moralischen Betrachtung liegen in diesem Modell drei Variablen zugrunde, die eine differenzierte Beurteilung einer Handlung ermöglichen:

  • Welche Absicht – gut oder schlecht – hat der Handelnde (Agent)?
  • Ist die Tat (Deed) selbst gut oder schlecht?
  • Ist das Ergebnis (Consequence) gut oder schlecht?

Zum Beispiel würden die meisten Menschen zustimmen, dass es schlecht ist, bei Rot über die Ampel zu fahren. Was aber, wenn man eine rote Ampel überfährt, um einem Krankenwagen Platz zu machen? Und was, wenn das Überfahren der roten Ampel bedeutet, dass Sie eine Kollision mit diesem Krankenwagen vermieden haben?

Menschliche Moralvorstellungen sind insbesondere durch zwei Faktoren bestimmt. Während die meisten Menschen Lügen moralisch schlecht beurteilen, sind sie sich dennoch einig, dass Notlügen in einigen Fällen angebracht und gut sind. Künstliche Intelligenz kennt momentan nur die Stabilität (Lügen ist schlecht), nicht aber die Flexibilität (Notlügen sind ok) menschlicher Moralvorstellungen. In den Augen der KI sind Lügen damit immer schlecht – auch wenn sie Leben schützen können.

Mehr Forschung nötig „bevor KI-Ethik und Menschen regelmäßig die Straße teilen“

Bezogen auf autonome Fahrzeuge bedeutet das: Unfälle sind um jeden Preis zu vermeiden. Weil die fünf Terroristen – in den Augen der KI – nichts Böses wollen und in der Überzahl sind, entscheidet sich das Auto für das Ausweichmanöver über den Bürgersteig und nimmt den Tod des Fußgängers in Kauf.

Während das menschliche Verhalten, die Verhinderung des Unfalls mit dem anderen Fahrzeug, als Selbstschutz gewertet wird, müssten sich die Entwickler der KI schlimmstenfalls für Totschlag verantworten. Auf der anderen Seite – und entgegen der menschlichen Natur – könnte die KI (und damit die Programmierer) eine Kollision in Kauf nehmen, denn Airbags, Knautschzone und Sicherheitsgurte schützen die Insassen zusätzlich.

Trotz unzähliger Untersuchungen, wie Philosophen und Laien an moralische Urteile herangehen, sagte Prof. Dubljević, dass das ADC-Modell ein Schritt in die richtige Richtung ist. Es werde aber mehr Forschung benötigt, „bevor vermeintlich ‚ethische‘ autonome Fahrzeuge beginnen, die Straße regelmäßig mit Menschen zu teilen„. Weiter sagte er: „Terroranschläge mit Fahrzeugen sind leider immer häufiger geworden. Wir müssen sicher sein, dass autonome Fahrzeuge nicht für ruchlose Zwecke missbraucht werden.“

Die Forschungsergebnisse seiner Studie erschienen Anfang Juli in der Zeitschrift „Science and Engineering Ethics“.

(Mit Material der North Carolina State University)



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion