„Scheinbar Science-Fiction“: KI-Drohnen-Simulation sorgt weiter für Wirbel

Weil der menschliche Bediener der Mission einer KI-Drohne im Wege stand, habe sie ihn ausgeschaltet. Sowohl U.S. Air Force als auch der Oberst, der den Vorfall berichtete, relativieren die Aussage.
KI-Drohnen sind mehr als ein Gedankenexperiment.
Die Kratos XQ-58 „Valkyrie“ ist eine KI-Drohne der US-Luftwaffe, die auch an autonomen „echten“ Kampfjets forscht.Foto: U.S. Air Force / SK
Von 6. Juni 2023


Testpilot Oberst Tucker „Cinco“ Hamilton, Leiter der Abteilung für KI-Tests und -Operationen der U.S. Air Force (USAF), berichtete jüngst von einer Simulation, bei der eine KI-gesteuerte Drohne feindliche Luftabwehr identifizieren und unterdrücken sollte. Die finale Entscheidung, ob eine Stellung zerstört werde, sollte ein menschlicher Bediener treffen. Als die KI bemerkte, dass dieser der Mission im Wege stand, schaltete sie ihn kurzerhand aus.

In einer Stellungnahme gegenüber „Business Insider“ widersprach die Luftwaffe, einen solchen Test durchgeführt zu haben. Epoch Times berichtete.

Überflüssiges Gedankenexperiment

Auch Oberst Hamilton stellte nun klar, dass es die auf dem Kongress für zukünftige Waffensysteme der Luft- und Raumwaffe (Future Combat Air and Space Capabilities Summit, FCAS) angesprochene Simulation nie gegeben hat. Es habe sich lediglich um ein Gedankenexperiment gehandelt – und um eines, das gar nicht nötig wäre, um zu diesem Ergebnis zu gelangen.

Die Royal Aeronautical Society (RAeS) hat ihre Veröffentlichung der Konferenz entsprechend aktualisiert. Dort heißt es:

Oberst Hamilton gibt zu, dass er sich in seiner Präsentation ‚falsch ausgedrückt‘ hat und dass es sich bei der ‚Schurken-KI-Drohnensimulation‘ um ein hypothetisches ‚Gedankenexperiment‘ von außerhalb des Militärs handelte.“

Dennoch beruhe das Experiment „auf plausiblen Szenarien und wahrscheinlichen Ergebnissen“. Weiter sagte Hamilton in der Richtigstellung der RAeS:

Wir [die USAF] haben dieses Experiment nie durchgeführt, und wir müssten es auch nicht, um zu erkennen, dass dies ein plausibles Ergebnis ist.“

Er stellt klar, dass die USAF keine – weder reale noch simulierte – waffenfähige KI auf diese Weise getestet hat. Er sagte außerdem: „Obwohl es sich um ein hypothetisches Beispiel handelt, veranschaulicht dies die realen Herausforderungen, die sich durch KI-gestützte Fähigkeiten ergeben, und ist der Grund, warum sich die Air Force für die ethische Entwicklung von KI einsetzt.“

Erinnerung oder Hirngespinst?

Unabhängig von der nachträglichen Erklärung hören sich Hamiltons Ausführungen eher nach Erinnerungen denn als Hirngespinst an. Das Gleiche trifft zu auf die Zusammenfassung seines Vortrags auf der Website der Royal Aeronautical Society. Darin ist die Rede von einem „Beispiel, das wie aus einem Science-Fiction-Thriller entnommen scheint“. Sowohl die „scheinbare Science Fiction“ als auch die Wortwahl Hamiltons in den zitierten Passagen sprechen dabei deutlich für ein reales Erlebnis.

Wie „The Byte“ in diesem Zusammenhang feststellt, unterstreicht „die Plausibilität (und Popularität) von Hamiltons Geschichte – ob hypothetisch oder tatsächlich – […] zumindest die allgemeinen Ängste der Öffentlichkeit in Bezug auf KI, die von führenden Vertretern der Industrie aufgegriffen werden“.

Sowohl U.S. Air Force als auch U.S. Navy forschen an KI und verwenden sie. Das Gleiche gilt für die anderen Militärs weltweit.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion