Künstliche Intelligenz in der Medizin: Die Fallstricke der Technologie

Krankheiten erkennen, Diagnosen stellen: Die Künstliche Intelligenz hat bereits Einzug in vielen Bereichen der medizinischen Versorgung gehalten. Verlassen sich Ärzte jedoch blind auf die neuen Technologien, können die Konsequenzen für den Patienten fatal sein.
Titelbild
Künstliche Intelligenz (KI) ist längst Teil der medizinischen Versorgung. Symbolbild.Foto: iStock
Von 31. Mai 2023


Der globale Markt für Künstliche Intelligenz wächst rasant. Seit 2022 kommen jeden Monat neue groß angelegte KI-Modelle auf den Markt, heißt es in einem Bericht der Stanford University. Zu diesen Modellen gehören unter anderem Bildgeneratoren wie Stable Diffusion und DALL-E 2, das Spracherkennungssystem Whisper und das inzwischen weltbekannte Chatbot ChatGPT. In einem Bereich wird in der KI-Entwicklung besonders viel investiert: das Gesundheitswesen. Bei vielen Menschen löst die Technologie jedoch Unbehagen aus.

Obwohl die Vereinigten Staaten weltweit die Spitzenposition bei den Investitionen in Künstliche Intelligenz (KI) einnehmen, bleiben viele Amerikaner skeptisch. Laut einer globalen Umfrage von Ipsos, die Ende 2021 erhoben wurde, stimmten nur 35 Prozent der befragten US-Bürger der Aussage zu, dass Produkte und Dienstleistungen, die KI nutzen, mehr Vorteile als Nachteile haben. Ein ähnliches Meinungsbild zeigt sich laut der Studie auch in Deutschland.

Der Mensch ist fehlbar – KI aber auch

Auch wenn derzeit viel Aufregung um KI herrscht, ist Künstliche Intelligenz keine neue Erfindung. Wissenschaftler nutzen KI bereits seit den 1970er-Jahren in der medizinischen Forschung. Die Technologie kann große Datenmengen analysieren, personalisierte Behandlungsempfehlungen geben und Krankheitsbilder sowie Risiken identifizieren, die für das menschliche Auge möglicherweise nicht sofort erkennbar sind. Menschen haben Emotionen und sind fehlbar, heißt es oft. Ein genauer Blick in die KI-Forschung zeigt jedoch, dass die moderne Technologie auch ihre Fallstricke hat.

Die Leistungsfähigkeit Künstlicher Intelligenz hängt nämlich von den ihr zugrunde liegenden Daten ab. Wenn ein Algorithmus mit schlechten oder unvollständigen Daten trainiert wird, entsteht eine „Datenverzerrung“, die zu fehlerhaften Schlussfolgerungen führen kann.

Zahlreichen Studien zufolge könne KI bei der Einschätzung von Hautkrebs präzisere Ergebnisse liefern als Ärzte. In diesen Studien wurden jedoch klinisch realistische Szenarien nicht angemessen bewertet, so die Kritik einiger Wissenschaftler. Wie verhalten sich KI-Systeme beispielsweise, wenn ihnen Bilder von Krankheitskategorien vorgelegt werden, mit denen sie nicht trainiert wurden? Dieser Frage ging ein internationales Forscherteam nach.

Für die Entwicklung von Algorithmen stellten die Forscher über 25.000 Trainingsbildern mit zwei Datensätzen aus Wien und Barcelona zur Verfügung. Diese umfassten Informationen und Merkmale von insgesamt acht verschiedenen Hautkrankheiten. Anschließend testeten die Forscher die Leistung der Algorithmen bei der Klassifizierung von Hautkrebs und verglichen die Ergebnisse mit den Einschätzungen von 18 Dermatologen.

Das Ergebnis: Bei den Krankheitsbildern, die nicht im Trainingsdatensatz enthalten waren, wurde von der KI fast die Hälfte (47,1 Prozent) der Krankheiten falsch klassifiziert. Dies würde zu einer erheblichen Anzahl unnötiger Biopsien führen, wenn die modernsten KI-Technologien klinisch eingesetzt würden, schlussfolgerten die Forscher.

Wenn Ärzte KI-Empfehlungen blind folgen

Es gibt außerdem noch ein weiteres Problem. Derzeit wird KI in der Medizin bereits zur Unterstützung klinischer Entscheidungen eingesetzt. „Wir beobachten, dass das Vertrauen in KI massiv ist und wir es eher begrenzen müssen“, sagte Prof. Dr. Matthias Uhl von der Technischen Hochschule in Ingolstadt. Menschen würden Algorithmen grundsätzlich mehr Objektivität zuschreiben als Ärzten, auch wenn sie wissen, dass die KI mit Entscheidungen von Ärzten trainiert wurde.

Selbst erfahrene Mediziner neigten dazu, der KI blind zu folgen, insbesondere wenn sie unsicher sind und unter Zeitdruck stehen, erklärte Uhl gegenüber der „Neuen Zürcher Zeitung“. Dies kann fatal sein, da KI auch Fehler macht. Uhl machte den Vergleich: „Wir alle kennen die Geschichten von Leuten, die ihrem Navi so sehr vertrauen, dass sie sogar noch die Einbahnstraße hochfahren, wenn andere wild hupen.“

Ein Experiment von deutschen und niederländischen Forschern bestätigt die Befürchtung: Selbst erfahrene Radiologen mit über 15 Jahren Erfahrung in der Mammografie schnitten schlechter ab, wenn ihnen die KI eine falsche Kategorie für den ermittelten Wert vorschlug. Die Trefferquote der Ärzte sank dabei von 82 Prozent auf 45,5 Prozent.

Das Geheimnis der „Black Box“

Die Forscher stellten sich in Anbetracht dieser Ergebnisse auf den Standpunkt, dass Sicherheitsmaßnahmen erforderlich seien, um diese Art von Fehleinschätzungen zu vermeiden. Eine dieser Vorkehrungen könnte darin bestehen, dass man den „Denkprozess“ der KI verstehen lernt. Dafür müssen Forscher nachvollziehen können, was in der sogenannten „Black Box“ abläuft. Als Black Box wird jenes System der Künstlichen Intelligenz bezeichnet, dessen Eingaben (Daten) und Operationen für den Benutzer nicht sichtbar sind. Selbst für die Entwickler bleiben die Vorgänge darin ein Geheimnis.

Eine Möglichkeit, die KI für Menschen verständlicher zu machen, findet sich im Ansatz der erklärbaren KI. Es handelt sich dabei um ein System, bei dem die Algorithmen, Trainingsdaten und das Modell für jeden einsehbar sind – das sogenannte Glass-Box-Modell. Dadurch sollen die internen Abläufe von Künstlicher Intelligenz nachvollziehbarer und die getroffenen Vorhersagen verständlicher gemacht werden.

Im Feld der Künstlichen Intelligenz hat der Faktor Genauigkeit eine zentrale Bedeutung. Hierin sehen viele Forscher den Nachteil der erklärbaren KI. Dies hat die KI-Entwicklung bisher vor ein Dilemma gestellt: Entweder entscheidet man sich für ein System, das leicht verständlich, aber möglicherweise weniger genau in seinen Vorhersagen ist (Glass-Box-Modell), oder man bevorzugt ein System, das sehr genau ist, aber schwerer zu verstehen ist (Black-Box-Modell).

Doch inzwischen beginnen einige Wissenschaftler, diese Annahme infrage zu stellen. Sie sind überzeugt, dass Modelle, die leicht verständlich sind, nicht unbedingt an Genauigkeit einbüßen müssen. „Der vermeintliche Kompromiss zwischen Genauigkeit und Verständlichkeit ist ein Trugschluss“, heißt es in der Fachzeitschrift „Harvard Data Science Review“.

Die Autoren fordern KI-Entwickler auf, sich von dem „Black-Box“-Modell zu verabschieden und zu einem „Glass-Box“-Modell überzugehen. „Wenn Wissenschaftler verstehen, was sie tun, wenn sie Modelle erstellen, können sie KI-Systeme entwickeln, die den Menschen besser dienen können.“

Dieser Artikel erschien im Original auf theepochtimes.com unter dem Titel: „In the ‘Wild West’ of AI Health Care, These 4 Things Could Go Very Wrong“ (redaktionelle Bearbeitung dl)



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion