Wer haftet, wenn eine „Künstliche Intelligenz“ einen Unfall baut? – Allianz regt Debatte an: KI so gefährlich wie AKW

Die Künstliche Intelligenz hält in immer mehr Bereiche unseres Lebens Einzug. Jedoch warnen zunehmend Kritiker davor, dass mit dieser Technologie Gefahren und auch viele offene juristische Fragen verbunden sind.
Titelbild
Ein selbstfahrendes Auto mit Technik von Google.Foto: Andrej Sokolow/Archiv/dpa
Epoch Times3. Juli 2018

Die sogenannte Künstliche Intelligenz (KI), ist in unserer hochtechnisierten Gesellschaft im Vormarsch und soll das Leben vereinfachen. Mit ihr wird im Allgemeinen versucht, menschenähnliche Entscheidungsstrukturen in einem offenen Umfeld nachzubilden, d. h., einen Computer bzw. eine Maschine so zu bauen oder zu programmieren, dass er/sie eigenständig Probleme bearbeiten kann.

KI wird in der Logistik, im Medizinwesen, in der Automobilindustrie, im Maschinenbau, in der Softwareindustrie, in der Rüstungsindustrie und vielem mehr genutzt.

Unfälle zeigen – KI birgt Gefahren

Doch, und darauf verweisen zunehmend mehr Kritiker, birgt die Technik auch Gefahren, was sich unter anderem in Unfällen mit selbstfahrenden Autos bereits widerspiegelte. Menschen verlassen sich zunehmend auf die Technik und nicht auf ihre eigenen Fähigkeiten. Der Mensch gerät so unmerklich in ein Abhängigkeitsverhältnis.

Ein anderer Aspekt sind die vorhandenen straf- und zivilrechtlichen Strukturen, die nicht auf KI ausgelegt sind. Sie stellen sowohl den Gesetzgeber als auch die Versicherungsbranche vor Schwierigkeiten.

Denn wer haftet bei einem Unfall, bei dem finanzieller Schaden entsteht, oder noch schlimmer, wie im März in den USA geschehen, ein Mensch durch einen Unfall mit einem selbstfahrenden Auto ums Leben kommt? In dem erwähnten Fall ist die Schuldfrage noch immer ungeklärt.

Damals wurde eine Fußgängerin tödlich durch ein selbstfahrendes Auto von „Uber“ getroffen, weil die Software die Frau nicht richtig erkannt hat und weil bei den Autos keine automatische Notbremsung vorgesehen ist. Die Frau schob ein Fahrrad über eine mehrspurige Straße.

Eine Untersuchung zeigte, dass die Software die Frau zunächst als unbekanntes Objekt einstufte, dann als Fahrzeug und schließlich als Fahrrad – und sei sich unsicher gewesen, in welche Richtung sich das „Objekt“ überhaupt bewegt. Auch die im Fahrzeug sitzende Sicherheitsfahrerin löste keine Notbremsung aus.

Kontroverse Ansichten zur Schuldfrage bei KI

Bisher war es aus Sicht der Versicherung eindeutig: Fahrer, Halter, Eigentümer oder Hersteller eines Fahrzeugs haften, je nachdem wer schuldhaft gehandelt hat. Doch mit der KI-Technologie sind kontroverse Ansichten entstanden.

Wer ist bei einem selbstfahrenden Auto der Fahrer? Um diese Schwierigkeit zu lösen gibt es Befürworter, die KI-Programme bzw. mit KI-gesteuerte Maschinen eine Rechtspersönlichkeit zusprechen wollen. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.

Doch dem stehen allein schon praktische Gründe entgegen, denn eine Maschine hat kein Konto. Selbst wenn ihr schuldhaftes Verhalten zugesprochen würde, wo kommt das Geld zum Schadensausgleich her? So muss letztendlich immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.

Zudem müsste, wenn man KI-Maschinen bzw. KI-Software als Rechtspersönlichkeit anerkennt, das Zivil- und Strafrecht angepasst werden. Gibt es also dann bald Haftstrafen für selbstfahrende Autos oder sogar gerichtlich angeordnete Zwangsverschrottungen? Natürlich nicht – kriminelle Maschinen im Gefängnissen bleiben reine Science Fiction.

Hersteller von KI soll haften

Aber was ist dann mit dem Hersteller, soll er nicht für Schäden, die seine KI-Programme anrichten, haften? „Das kann sich der Gesetzgeber überlegen“, sagt der Rechtswissenschaftler Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München, Heise gegenüber.

Ich persönlich halte das nicht für sinnvoll, denn auch bisher ist es schon so, dass für Produktfehler der Hersteller haftet.“

Doch reicht dies rechtlich aus? Was ist, wenn der Computer einfach die falsche Entscheidung trifft? Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten selbsttätig Muster und Situationen erkennen und darauf reagieren.

„Es erscheint mir schwierig, Programmen ein Verschulden anzulasten – egal ob sie ausschließlich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln“, sagt Allianz-Vorstandsmitglied Müller dem „Heise-Verlag“ dazu.

Oder kann man einfach sagen, dass bereits im ursprünglich durch Menschen programmierten Algorithmus bereits ein Fehler liegen muss – sodass der Hersteller haftet?

Gefährdungshaftung bei KI

Manche Rechtsexperten halten die derzeitigen Regelungen für ausreichend und sehen bei den selbstfahrenden Autos hauptsächlich den Halter in der Verantwortung. Denn für bestimmte Maschinen und Anlagen gilt auch jetzt schon eine Gefährdungshaftung.

Dazu zählen bereits Autos, Züge, Flugzeuge und Atomkraftwerke. Hier haftet vorrangig der Betreiber bzw. Halter einer Maschine oder Anlage, es sei denn ein Fahrer oder Bediener handelt vorsätzlich oder fahrlässig. „Diese Haftung reicht aus, auch wenn das Auto selbst fährt“, sagt Rechtswissenschaftler Lorenz.

Auch nach Einschätzung des Bundesjustizministeriums besteht derzeit kein Handlungsbedarf. Regelungen zum automatisierten Fahren sind erst 2017 in das Straßenverkehrsgesetz aufgenommen worden. „Bisher sehen wir keinen Grund, dass wir an der bewährten Reihenfolge der Haftung etwas ändern sollten“, äußerte ein Sprecher des Ministeriums „Heise“ gegenüber.

Klare gesetzliche Regelungen notwendig

Der Versicherungskonzern Allianz regt an, darüber nachzudenken, den Gefährdungshaftungstatbestand explizit in einem Gesetz zur Verwendung von Künstlicher Intelligenz zu formulieren.

Was bedeuten würde, dass KI dann rechtlich ähnlich zu betrachten wäre wie ein Auto oder ein Atomkraftwerk, also als potenziell gefährlich. (er)



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion