ChatGPT: Fluch oder Segen für das Bildungssystem?

Künstliche Intelligenz kann Aufsätze und Referate schreiben sowie Mathematikaufgaben lösen. Erste Unis und Schulen ziehen Konsequenzen.
Titelbild
Die Rückkehr zu Stift und Papier könnte eine Reaktion auf den Einsatz von ChatGPT sein.Foto: iStocks/slexp880
Von 19. Januar 2023

Der Chatbot ChatGPT des kalifornischen Start-ups OpenAI ist erst seit November 2022 verfügbar. Seitdem sorgt er in Bildungseinrichtungen in aller Welt für Wirbel. Lehrkräfte, Schulen und Unis fragen sich, wie sie die Eigenleistung von Schülern und Studierenden erkennen sollen und ob die Prüfungsbedingungen angepasst werden müssen.

ChatGPT ist ein sogenannter Chatbot, also ein textbasiertes Dialogsystem. Die Software ist mit riesigen Datenmengen aus dem World Wide Web gefüttert und kann Informationen immer neu zusammenstellen.

Rückkehr zu Papier und Stift

ChatGPT ist also „mehr als ein Textgenerator“, erläutert Anja Bensinger-Stolze vom Vorstand der Gewerkschaft Erziehung und Wissenschaft (GEW) gegenüber Agenturen. Beruhend auf Künstlicher Intelligenz (KI) könne die App „programmieren, mathematische Probleme lösen und auch einfache oder komplexere Fragen beantworten“.

Doch die Entwicklung sorgt auch für Unruhe, etwa an Lehreinrichtungen, und führt zu Rückbesinnungen an frühere Unterrichtsmethoden. So haben in Australien acht Universitäten bereits angekündigt, wegen der Möglichkeiten, die die KI bietet, ihre Prüfungsbedingungen zu ändern. Für dieses Jahr planen sie daher eine „vermehrte Rückkehr zu Papier und Stift“.

Zugriff an Schulen eingeschränkt

In New York haben staatliche Schulen den Zugriff auf ChatGPT über ihre Netzwerke und Geräte eingeschränkt. Die App „erlaubt es nicht, Kompetenzen der kritischen Reflexion und der Problemlösung zu entwickeln, die wesentlich für den schulischen Erfolg und den Erfolg im weiteren Leben sind“, heißt es von der New Yorker Bildungsbehörde.

In Deutschland gibt es bislang nur Diskussionen über mögliche Verbote. Bundesdigitalminister Volker Wissing (FDP), der Anfang Januar während einer Reise an die US-Westküste auch OpenAI-Chef Sam Altman traf, wirbt für eine positive Herangehensweise. Statt zu „überlegen, wie wir das möglichst zurückdrängen, einschränken oder gar verbieten“, gehe es darum, „wie die KI sinnvoll integriert werden kann“, erklärte Wissing gegenüber der Nachrichtenagentur AFP.

IT-Forscher mahnt zur Gelassenheit

Auch der Pariser IT-Forscher Antonio Casili mahnt zu Gelassenheit. „ChatGPT ist eine wichtige Innovation, aber nicht mehr als die des Taschenrechners oder des Texteditors“, die mittlerweile einen festen Platz in der Schulbildung haben. Schüler und Studenten müssten den Suchergebnissen von ChatGPT immer noch die richtige „Form geben“.

Die „Gewerkschaft Erziehung und Wissenschaft“ (GEW) geht angesichts entsprechender Erfahrungsberichte von Lehrkräften davon aus, dass Schüler ChatGPT längst für Hausaufgaben oder auch Referate nutzen.  Lehrer müssten daher entsprechende Fortbildungen absolvieren, um die Schüler beim Thema KI optimal begleiten zu können, fordert GEW-Vorstand Anja Bensinger-Stolze.

Schüler müssten sich wiederum fragen, was sie „davon haben, Texte einfach abzuschreiben“. Zudem sei es gerade in Zeiten von Fake News „sehr wichtig, dass Kinder und Jugendliche lernen, Bezüge herzustellen, Texte zu beurteilen, Quellen zu finden und zu bewerten“, betont Bensinger-Stolze.

Bewusstsein bei Schülern und Studenten wecken

Der Präsident des Deutschen Lehrerverbandes, Hans-Peter Meidinger, ergänzt: Kindern und Jugendlichen müsse bewusst gemacht werden, „dass sie Texte nicht für eine Lehrkraft, sondern für ihren eigenen Lernfortschritt entwickeln und schreiben“. Wenn sie sich einfach auf KI verließen, würden sie sich „selbst schaden“. Meidinger ist zuversichtlich, dass Lehrkräfte anhand von Alter und Leistungsniveau der Schüler weiterhin „sehr gut einschätzen können“, was selbst erarbeitet ist und was die KI erledigt hat.

Zumindest im Moment können sich Schüler und Studenten tatsächlich nicht allzu sehr auf ChatGPT verlassen. Der App unterlaufen noch einige inhaltliche und logische Fehler. So ordnet sie Walhaie wie Wale den Säugetieren zu. Auch weniger leicht zu entdeckende Fehler sind in ChatGPT-Anfrageergebnissen enthalten. Dazu gehören etwa vollkommen erfundene Quellenangaben im Literaturverzeichnis.

Der Bayerische Realschullehrerverband (BRLV) sieht in Apps wie ChatGPT dennoch „völlig neue, noch nicht absehbare Herausforderungen hinsichtlich Unterrichtsgestaltung und Prüfungskultur“. Der BRLV-Digitalbeauftragte, Ferdinand Stipberger, warnt: „ChatGPT steht erst am Anfang und wird sicher mit jeder folgenden Version verbessert, denn das liegt in der Natur von KI!“

Kennzeichnungspflicht für Texte

„So etwas haben wir noch nicht erlebt. Es gibt nichts Vergleichbares“, sagt Doris Weßels, Professorin für Wirtschaftsinformatik an der Fachhochschule Kiel. Zum ersten Mal in der Menschheitsgeschichte bekämen alle, die schreiben, mit ChatGPT einen mächtigen, virtuellen und „extrem einfach zu bedienenden“ Partner an die Seite gestellt. Das verändert alle Branchen – und auch den Alltag in Schulen und Universitäten, sagte sie gegenüber dem „Redaktionsnetzwerk Deutschland“ (RND).

Mehr mündliche Prüfungen

Weßels rät Lehrern zu einem Schnelltest, indem sie ihre Aufgabenstellung vorab selbst bei ChatGPT prüfen: „Wenn das System auf den ersten Klick eine flüssige, vorbildlich gute, faktengetreue Antwort liefert, hat es keinen Sinn, Studierenden genau diese Frage zu stellen. Dann kann ich die Hausaufgabe streichen“, sagt sie. „Das bringt nichts.“

Sie fordert eine Kennzeichnungspflicht für KI-generierte Texte. KI werde zweifellos das klassische Lehrsystem von „Lernen und Abfragen“ verändern. Pädagoginnen und Pädagogen werden neue, originellere Methoden finden müssen, um den Kenntnisstand der Schüler zu ermitteln. Eine Möglichkeit könnten Transferaufgaben sein. Dabei wird ein erlernter Lösungsweg auf ein konkretes Kreativprojekt übertragen. Da ist ChatGPT (noch) keine große Hilfe. Denkbar sind auch mehr Präsenzklausuren oder mehr mündliche Prüfungen, sagt Weßels.

Chatbot kann nicht jede Frage beantworten

Besonders schwer wiegen Anschuldigungen, dass ChatGPT schlichtweg Dinge erfindet, die Unwahrheit schreibt beziehungsweise zur massiven Verbreitung von Falschinformationen beiträgt.

Fragt man den Chatbot selbst danach, ob er jede Frage beantworten kann, verneint er dies, berichtet die „Tagesschau“: „Als Sprachmodell bin ich trainiert worden, auf eine große Menge an Texten im Internet zu reagieren und mögliche Antworten zu generieren, ich habe jedoch nicht die Fähigkeit, jede Frage zu beantworten, da ich nicht über alle Informationen verfüge. Ich werde mein Bestes tun, um Ihre Fragen zu beantworten, aber es gibt bestimmte Fälle, in denen ich keine Antwort habe oder die Antwort nicht sicher sein kann.“

Sei der Chatbot nur so zuverlässig wie die Daten, mit denen er gefüttert wird, so ist das Programm aktuell auf dem Stand von 2021. In einer früheren Version, GPT-2, war der Chatbot so gut darin, gefälschte Nachrichten zu verfassen, dass OpenAI beschloss, sie nicht zu veröffentlichen.

Verhöhnung des Menschseins

Als „eine groteske Verhöhnung des Menschseins“ kritisiert der australische Sänger und Songwriter Nick Cave den Chatbot. Cave, der seit Jahrzehnten große Erfolge solo wie auch mit seiner Band „Bad Seeds“ feiert, nimmt Bezug auf Texte, die ihm Fans zugesandt hatten. Dazu nutzten sie ChatGPT und wiesen die KI an, den Stil des 65-Jährigen zu imitieren, berichtet das Portal „t3n“.

In seinem Newsletter „The Red Hand Files“ hat Cave einem Fan geantwortet. Er bezeichnete das Lied als „Bullshit“. Dem Chatbot fehle die Grundlage für das Schaffen von nachdenklicher Musik. „Lieder entstehen aus dem Leiden heraus, das heißt, sie basieren auf dem komplexen, inneren menschlichen Kampf der Schöpfung, und soweit ich weiß, haben Algorithmen keine Gefühle“, schrieb Cave.

 



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion