Kann Künstliche Intelligenz den Menschen ersetzen?

Die immer größer werdenden Möglichkeiten und Gefahren der KI fordern die Gesellschaft heraus. Der Ethikrat hat sich mit dem Thema befasst.
Titelbild
Alena Buyx im Jahr 2022.Foto: Matthias Kehrein/Epoch Times
Von 21. März 2023

„Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen.“ Das sagte Alena Buyx, die Vorsitzende des Deutschen Ethikrates am Morgen des 20. März in Berlin.

Angesichts des immer größer werdenden Raumes, den die Künstliche Intelligenz im täglichen Leben einnimmt, trat der Rat mit einer Stellungnahme an die Öffentlichkeit. „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“, lautete der Titel.

Wechselwirkungen zwischen Mensch und Technik

Das eingangs erwähnte Statement von Buyx lässt schon erahnen, in welches Spannungsfeld sich die Menschheit durch die Nutzung der KI begeben hat. Einerseits nutzt der Mensch die KI für seine Zwecke, andererseits hat die Technologie Auswirkungen. Dadurch eröffnen sich sowohl neue Möglichkeiten als auch Einschränkungen.

Wenn eigenes Handeln an die KI delegiert wird, soll es laut den Verfassern die Möglichkeiten menschlichen Handelns erweitern. „Umgekehrt gilt es, die Verminderung menschlicher Handlungsfähigkeit und Autorschaft sowie eine Diffusion oder Evasion von Verantwortung zu verhindern“, so der Ethikrat.

Und die künstlichen neuronalen Netzwerke werden immer komplexer – und immer undurchsichtiger. Laut dem „Ärzteblatt“ können selbst die Entwick­ler bestimmter Anwendungen „heute oft nicht mehr im Detail nachvollziehen, wie genau die von ihnen geschriebenen Algorithmen aus Eingabe A Ausgabe B generieren“.

Der Rat spricht deshalb von „komplexen Wechselwirkungen zwischen Mensch und Technik“ sowie der Beobachtung „gesellschaftlicher Effekte“. Dass diese Frage eher komplex als einfach zu beantworten ist, wird auch durch die Seitenanzahl der Stellungnahme deutlich: Ganze 300 Seiten ist die Einschätzung lang.

Verantwortung kann nur der Mensch tragen

Debatten um eine Gleichstellung von maschinellen und menschlichen Akteuren erteilt der Rat eine Absage. „Menschenrechte für Roboter“ könne es nicht geben wegen des grundlegenden Unterschieds zwischen Mensch und Maschine. „KI-Anwendungen können menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen“, betont Julian Nida-Rümelin, der stellvertretende Vorsitzende des Deutschen Ethikrates.

So spielen auch die Begriffe Freiheit und Moral in dem Papier eine Rolle. KI-Softwaresysteme verfügten auch über keine Vernunft. „Moralische Verantwortung können nur natürliche Personen übernehmen, die über Handlungsfähigkeit verfügen“, steht dort. „Träfe dies auch auf Maschinen zu, wären auch diese verantwortungsfähig. Dann müssten Maschinen der Personenstatus zugeschrieben werden.“ Da dies aber nicht möglich sei, auch wenn sie Anteilnahme, Kooperationsbereitschaft oder Einsichtsfähigkeit simulierten, könne Verantwortung nur von den Menschen übernommen werden.

In den zwei Jahren der Erstellung ihres Berichts setzte sich der Ethikrat auch mit dem Begriff der „künstlichen“ Intelligenz als Gegenstück zum Begriff der „menschlichen“ Intelligenz auseinander. Der Begriff „Intelligenz“ werde in Bezug auf die Technik missverständlich genutzt, erklären die Verfasser, da er eine Gleichheit zwischen Mensch und Maschine suggeriere. Auch wenn sich auf die KI Teilaspekte menschlicher Leistungen übertragen ließen, bei sozialer oder emotionaler Intelligenz sei das nicht möglich.

Kommunikation in öffentlicher Verantwortung?

Der Ethikrat untersuchte die vier Bereiche Medizin, schulische Bildung, öffentliche Kommunikation und öffentliche Verwaltung. Problemfelder im Medizinbereich sind etwa die Gefahr, dass Ärzte durch die Nutzung moderner Systeme ihre Fähigkeiten verlieren. Darüber hinaus besteht ein Spannungsfeld zwischen Wahrung der Privatsphäre von Patienten bei gleichzeitiger intensiver Datennutzung in der medizinischen Forschung.

Ärzte vollständig durch KI-Systeme zu ersetzen, lehnt der Rat ab. Das gefährde das Patientenwohl und sei auch nicht durch akuten Personalmangel zu rechtfertigen.

Für die schulische Bildung empfiehlt der Ethikrat einen behutsamen Einsatz der KI. Die „grundlegenden Bildungsvorstellungen“ sollten im Vordergrund stehen. Die KI solle dort zum Einsatz kommen, wo sie den Schülern nützen kann, etwa beim Erlernen von Kompetenzen und bei sozialem Austausch.

Im Bereich der öffentlichen Kommunikation regt der Rat an, die Regeln für Onlineplattformen weiterzuentwickeln „hinsichtlich der Auswahl und Moderation von Inhalten“. Das werde notwendig, weil der Umgangston in den sozialen Medien rauer geworden sei. Die demokratischen Institutionen seien verletzlicher geworden. Daher stelle sich die Frage, ob eine alternative Kommunikationsinfrastruktur in öffentlicher Verantwortung nicht zum „Schutz von Vielfalt, kommunikativem Ethos und Demokratie erforderlich ist“.

In der öffentlichen Verwaltung sollen Einzelfallbetrachtungen sowie Einsichts- und Einspruchsrechte von Betroffenen gewährleistet bleiben und Menschen vor Diskriminierung geschützt werden.

Problemfelder

Bei der Nutzung komplexer KI-Systeme sieht der Rat allgemeine Problemfelder. Etwa könnten Systeme so umfangreiche Aufgaben übernehmen, dass unklar wird, wer die Verantwortung trägt. Die menschliche Kontrolle müsse aber erhalten bleiben.

Der Ethikrat sorgt sich auch um den Verlust menschlicher Fertigkeiten – das sogenannte Deskilling – und die Abhängigkeit und den Missbrauch von Technik. Da bei der KI Massen an Daten anfallen, will der Rat die Nutzung von Daten ermöglichen, die dem Gemeinwohl zugutekommen, die Privatsphäre soll aber gleichzeitig gewahrt bleiben.

Der Rat warnt auch vor der Rolle, die Prognosen in Zukunft bei Entscheidungen spielen könnten: „Wenn eine Software vorhersagt, dass eine Person zu 99 % straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das 1 % ist.“

Alena Buyx wagt einen Blick in die Zukunft: „Können (zukünftige) Maschinen im vollen Sinne intentional handeln? Die kurze Antwort auf diese Fragen lautet: Nein.“ Intentionalität, die höchste Stufe des Agierens, sei dem Handeln von Menschen vorbehalten. 



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion