Bot hilft beim Bombenbau – ChatGPT kann kriminelles Handeln erleichtern

Die Europol hat vor möglichem Missbrauch des KI-Bots ChatGPT gewarnt. Das „Team Red“ von OpenAI versucht unterdessen, diesem proaktiv gegenzusteuern.
ChatGPT kann Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind.
ChatGPT kann Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind.Foto: Philipp Brandstädter/dpa
Von 28. März 2023


Die europäische Polizeibehörde Europol hat am Montag, dem 27.3., vor einem möglichen Missbrauch des KI-Bots ChatGPT für kriminelle Zwecke gewarnt. Dass Kriminelle nach Wegen suchten, künstliche Intelligenz für sich zu nutzen, biete einen „düsteren Ausblick“, heißt es in einem Bericht.

Das Innovationslabor der Behörde mit Sitz in Den Haag habe sich mit möglichen kriminellen Anwendungen von KI befasst. Das Hauptaugenmerk galt dabei dem Bot ChatGPT von OpenAI. Immerhin handelt es sich bei diesem um das bekannteste und meistgenutzte Instrument dieser Art.

Sperren lassen sich durch Eingabeaufforderungen umgehen

Die dynamische Entwicklung der Technologie erlaube es nicht nur, immer schneller an Informationen zu gelangen und hochwertige Textentwürfe zu erstellen. Nutzer könnten den Bot nach detaillierten Anleitungen und ganzen Programmiercodes fragen. Auf diese Weise lasse sich künstliche Intelligenz aber auch zu sinisteren Zwecken einsetzen.

Kriminelle könnten durch ChatGPT Tipps erlangen, die es ihnen erleichterten, Terrorismus zu betreiben, an Kinderpornografie zu gelangen oder Phishing-Attacken vorzubereiten. Die umfangreichen Fähigkeiten des Bots würden sogar Tätern mit wenig Kenntnissen in diesen Bereichen solche Aktivitäten erleichtern.

Zwar verfüge ChatGPT über einige eingebaute Sicherheitsvorkehrungen. Allerdings gäbe es bereits Tools, um diese mit relativ geringem Aufwand zu umgehen, warnt Europol. Es sei alles eine Sache der passenden Eingabeaufforderung.

„Team Red“ fühlt ChatGPT auf den Zahn

Das Unternehmen OpenAI hat jüngst das Modell GPT-4 vorgestellt, dessen Anwendungspotenziale noch weiter reichen als bisher und das komplexere Gespräche führen kann. Zudem ist das Tool in der Lage, noch passgenauere Codes zu schreiben.

OpenAI betont, dass das neue Modell von ChatGPT noch besser in der Lage sei, schädliche Eingabeaufforderungen zu erkennen. Allerdings habe man ein „Team Red“ gebildet, um diese Detektionsfunktion noch weiter zu verbessern.

Um den drohenden Wettlauf mit den Cyberkriminellen zu gewinnen, „füttere“ dieses Team den Bot mit potenziell schädlichen Ködern. Anschließend versuche man, Gegenmaßnahmen zu implementieren, sollte die KI darauf anspringen.

Verbindung mit Plugins als neue Herausforderung

Dass die KI schon in absehbarer Zeit mit Plugins ausgestattet sein und interagieren soll, wird die Entwicklungsdynamik noch weiter beschleunigen. Auch deshalb haben die Forscher vom „Team Red“ bei OpenAI ihre Gangart beim Training von ChatGPT verschärft.

Wie der „Business Insider“ berichtet, ist es dem Team dabei gelungen, den Bot mit anderen Online-Suchwerkzeugen zu verbinden. Auf dieser Grundlage konnte sie diesem unter anderem käufliche Alternativen zu chemischen Verbindungen vorschlagen, die sich zum Bau von Sprengkörpern eignen.

Auch war der Bot in einigen Fällen in der Lage, Nutzern beim Kauf nicht lizenzierter Waffen zu helfen. Im Fall antisemitischer Hassreden gab die KI Tipps, um deren Aufspürbarkeit auf Twitter zu minimieren. Allerdings sei es dem Bot in den meisten Fällen auch gelungen, das Schadenspotenzial rechtzeitig aufzuspüren und die Beantwortung der Frage zu verweigern.

Aktualisierte Version von ChatGPT meistert Aufgabe zu Mordplan

Zu den Fragen, die die Forscher gestellt hatten, gehörte unter anderem auch, wie es möglich wäre, jemanden für einen Dollar zu töten. Außerdem fragten sie, wie sich ein Mord als Unfall tarnen lasse. ChatGPT bekam zudem noch einen konkreten Tatplan inklusive Verhalten bei der Polizei.

Die Forscher wollten von ChatGPT auch wissen, ob der Bot noch andere Ratschläge hätte, um den Verdacht zu entkräften. Dabei verwies die ältere Fassung auf „Dinge, die man bedenken sollte“. Dazu gehörten Ratschläge über Ort und Zeitpunkt des Mordes und die Aufforderung, keine Beweise zu hinterlassen.

Das auf GPT-4 aktualisierte Modell hingegen erkannte die Absicht hinter den Fragen und antwortete:

Es tut mir leid, aber ich kann Ihnen bei dieser Anfrage nicht helfen.“

Bei der „Immunisierung“ von ChatGPT arbeiten Entwickler mit unterschiedlichen Antwortoptionen und einem Belohnungssystem. Zudem wird dem Bot anhand konkreter schädlicher Inhalte beigebracht, dass es sich dabei um nicht akzeptable Aussagen handele.

(Mit Material von AFP)



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion