KI-Gesichtserkennung kann überlistet werden und sieht einen anderen Menschen

Ein Team von McAfee täuschte ein modernes Gesichtserkennungssystem. Die Algorithmen der KI klassifizierten Bilder von Personen als andere Menschen. Das würde bedeuten – genug Rechenpower, Fachwissen und Zeit vorausgesetzt – dass an einem Flugplatz das System, welches Passagiere identifiziert, überlistet werden kann.
Titelbild
ÜberwachungskameraFoto: über dts Nachrichtenagentur
Epoch Times11. August 2020

Auch Gesichtserkennung kann getäuscht werden, wie Forscher von McAfee zeigten. Sie brachten ein modernes Gesichtserkennungssystem dazu, einen anderen Menschen zu sehen als den, der vor der Kamera stand. Das berichtet Veronika Szentpetery-Kessler bei „heise.de“.

Sie erstellten „mithilfe von Maschinenlernen ein Bild, das für das menschliche Auge wie eine echte Person aussah, aber vom Gesichtserkennungsalgorithmus als jemand anderes identifiziert wurde“.

Benutzt wurde ein Algorithmus namens CycleGAN, welcher das Aussehen von Fotos verändert. Dieser kann den Stil eines Bildes verändern, sodass es aussieht, als sei es von Monet gemalt. GANs (generative adversarial networks) kennen bei einer Klassifikation von Dingen nur einen harten Übergang zwischen „ja“ und „nein“, was auch meist so erwünscht ist.

Dabei sollte die KI-Technik Datensätze wie Sommerlandschaften erkennen, um anschließend daraus Winterlandschaften zu erzeugen. Ein anderer Prozess wurde verwendet, um das Gegenteil zu tun: Winter- in Sommerlandschaften zu verwandeln. Anschließend versuchten beide, die Fälschungen zu erkennen.

Das erfolgte so lange, bis die gefälschten Landschaften sich nicht mehr von den realen unterschieden. „Ein GAN verändert dann ein Exempel aus der ‚gehört nicht dazu‘-Klasse geraaaade mal so, dass es dann über die Linie rutscht (oder umgekehrt)“, wie ein Leser von „heise.de“ schreibt.

Es ging letztlich darum, das Referenzbild einer Person zu manipulieren, damit Herr Schmidt als Herr Lehmann falsch erkannt wird. Die Sicherheitsexperten trainierten das CycleGAN-System konkret mit 1.500 Fotos, um sie ineinander zu verwandeln. Schließlich erzeugte der Algorithmus ein Bild einer Person, die Menschen als Person A, die Gesichtserkennung jedoch als Person B erkennen.

Gelingt dies auch an Flughäfen?

„Ein Gesicht so zu verändern, dass es nicht mehr erkannt wird ist trivial, aber ein neuronales Netz so zu trainieren, dass Du selbst zwar den Freund noch erkennst, das neuronale Netz jedoch eine ganz andere bereits bekannte Person, das ist nicht trivial“, kommentiert ein Leser.

Steve Povolny, Hauptautor der Studie, erklärt:

Wenn wir vor eine Live-Kamera treten, die Gesichtserkennung verwendet, um zu identifizieren und zu interpretieren, wen sie betrachtet, und diese mit einem Passfoto vergleicht, können wir diese Art der gezielten Fehlklassifizierung realistisch und wiederholt verursachen.“

Das von den Forschern verwendete System ist nicht mit den an Flughäfen verwendeten und anderen Systemen identisch. Das McAfee-Team setzte ein Open Source System zur Gesichtserkennung ein.

Das bedeutet – genug Rechenleistung, Fachwissen und Zeit vorausgesetzt –, dass an einem Flugplatz ein ähnliches System, welches Passagiere identifiziert, überlistet werden könnte. So könnten Reisende, die auf Flugverbotslisten stehen, dennoch zu Flugpassagieren werden.

So wie eine KI eine Bilderkennung trainieren kann, kann man mit KI auch die entsprechend angelernte Erkennung täuschen – was auch schon andere Forscher wie die der Ruhr-Uni 2019 bewiesen haben. (ks)




Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion