Ein ChatGPT generierter Aufsatz wird von einem Oberstufenlehrer mit 5,5 be-wertet: Öffnet die neuste Technik dem Betrug an Schulen Tür und Tor?

Wie sollen Zürcher Gymnasien mit der Herausforderung ChatGPT umgehen?

Ein ChatGPT-generierter Aufsatz wird von einem Oberstufenlehrer mit 5,5 bewertet: Öffnet die neuste Technik dem Betrug an Schulen Tür und Tor?

Von Antonia Müller und Linda Schubert

«Das Betrugsrisiko mit ChatGPT hängt von verschiedenen Faktoren ab, wie zum Beispiel von der Art der Anwendung, den Trainingsdaten, der Qualität des Modells und der ethischen Integrität des Benutzers. Es gibt sicherlich das Potenzial für Missbrauch, insbesondere in Bereichen wie dem Verfassen von gefälschten Texten oder dem Vortäuschen einer falschen Identität in einer Konversation.»

Dies ist die Antwort des Chatbots auf unsere Frage, wie gross das Risiko von computerkreierten Betrugsarbeiten und Plagiaten sei. Die erschreckend menschenähnlichen Aussagen dieser Maschine werden aus verschiedensten Seiten im Internet zusammengestückelt, wobei es gelegentlich auch zu Falschinformationen kommen kann. Trotzdem ist ChatGPT ein sehr hilfreiches Tool – allerdings mit einem grossen Potenzial für Betrug.

Um diesem Risiko vorzubeugen, hat die Stadt New York bereits vor einiger Zeit den Chatbot in allen öffentlichen Schulen verboten. «Wir sind besorgt um einen negativen Einfluss auf das Lernen unserer Schülerinnen und Schüler», sagt Jenna Lyle, eine Abteilungssprecherin, gegenüber dem «Guardian». Erzieher Dan Lewer geht sogar noch weiter und prognostiziert: «Roboter sind hier und sie werden die Arbeit unserer Schülerinnen und Schüler übernehmen.»

Fortschritt nicht verbieten

Experten aus Zürich hingegen erachten es als völlig falsch, gegen den technischen Fortschritt zu arbeiten. Ein Verbot von ChatGPT kommt beispielsweise für den Rektor des Realgymnasiums Rämibühl, Tobias Weber, nicht in Frage: «Das wäre realitätsfremd.» Viel wichtiger sei es, Schülerinnen und Schülern einen verantwortungsbewussten Umgang mit Künstlicher Intelligenz (KI) beizubringen. Sie sollten in der Lage sein zu erkennen, in welchen Fällen eigenständiges Arbeiten notwendig sei und wann man etwas automatisieren könne.

Auch Peter Müller, Informatikprofessor an der ETH Zürich, sieht den Chatbot überwiegend als positive Neuerung. Die Software gebe einen Eindruck, was KI schon heute leisten könne, und lasse erahnen, was in Zukunft noch möglich sein werde. Im Alltag hat KI viel Potenzial, Menschen von Routinetätigkeiten zu entlasten, z.B. beim Verfassen von Emails oder in Zukunft auch beim Formulieren von Verträgen. Im Vergleich zu heutigen Suchmaschinen sei ChatGPT eine viel natürlichere Art, mit einem Computer zu interagieren, erklärt er weiter. Während man bei einer regulären Suchmaschine Stichwörter in die Suchleiste eingebe und Links auf relevante Seiten erhalte, führe man mit dem Chatbot eine Konversation, wie man es auch mit Menschen im Gespräch mache. So könne man durch das Tool sehr einfach an viele Informationen gelangen. Mit ein bisschen Kreativität könne es noch viel mehr Anwendungen von KI im Alltag geben, zum Beispiel im Unterricht an Schulen.

Auf Nachfrage hin, ob er ChatGPT eher als Gefahr oder Bereicherung für die Zürcher Gymnasien einstufe, äussert Müller eine klare Haltung: ChatGPT biete viele Möglichkeiten für den Schulalltag, ausserdem entwickle sich die Technologie immer weiter und es sei immer besser, sich damit auseinanderzusetzen, als sich gegen eine unaufhaltsame Weiterentwicklung zu stemmen. Er betont: «Man kann Entwicklungen nicht aufhalten, sie werden passieren. Da ist es besser, die Entwicklungen mitzumachen und zu lernen, sie kritisch zu hinterfragen und sinnvoll zu nutzen.»

Um Plagiatsprobleme macht sich Müller keine grossen Sorgen. Zwar könnten normale Plagiatssoftwares von ChatGPT verfasste Texte nicht zuverlässig aufspüren, da diese Texte jedes Mal neu geschrieben würden. Jedoch arbeiten Firmen bereits an Softwarelösungen, welche bestimmen können, ob ein Text von einer KI oder einem Menschen erarbeitet wurden. Zudem könnten Lehrpersonen die Aufgabenstellungen so verfassen, dass ein Chatbot Mühe damit hat, zum Beispiel, indem sie eine tiefergehende Interpretation und Reflexion verlangen. Auch einfache Methoden wie das Verlangen von Quellenangaben oder mündliche Besprechungen könnten helfen herauszufinden, ob ein Text von Schülerinnen und Schülern oder einer Software erstellt worden sei. Daher sollte man ChatGPT in erster Linie als Chance begreifen, sich frühzeitig mit zukunftsweisenden Technologien auseinanderzusetzen, insbesondere an den Zürcher Gymnasien.

Wie hoch ist das Missbrauchsrisiko?

Bei einem Versuch der Zeitung «20 Minuten» wurden allerdings KI-geschriebene Aufsätze von einem Deutschlehrer mit der Note 5,5 oder sogar 6 bewertet. Bei anspruchsvolleren Aufgaben ist laut Weber aber nicht davon auszugehen, dass der Chatbot so überzeugende Resultate liefert. Er sieht neben Risiken auch viele spannende Herausforderungen für die Zürcher Kantonsschulen. So könne man von KI sehr gut lernen, wie man Texte effizient zusammenfasse und wichtige Stichpunkte selektiere, sagt er im Gespräch. Auch fordere die neue Technologie die Lehrpersonen dazu auf, sich anspruchsvollere Aufgabenstellungen zu überlegen, die eine eigene Meinungsäusserung erforderten und daher nicht einfach von einem Chatbot erledigt werden könnten.

Nicht zu erwarten ist laut Weber ein substanzieller Beitrag von ChatGPT bei der Beantwortung einer sehr spezifisch gestellten Fragestellung wie: «Inwiefern kritisiert Lessing mit der Ringparabel das Ideal der Toleranz?». Allerdings bestehe die Gefahr darin, dass die Schülerinnen und Schüler KI als einfachen Ausweg sähen, als eine Art Abkürzung, um schnell passable Lösungen zu präsentieren. Hier sei die Schule in der Pflicht zu erklären, dass es zu einer gymnasialen Ausbildung gehöre zu lernen, wie man eigenständig Zusammenhänge erschliesst sowie Texte strukturiert und verfasst.

Hat Weber Ideen, wie man ChatGPT in den Unterricht integrieren kann? Auf diese Frage hat er gleich mehrere Vorschläge bereit. So gebe es für Lehrerinnen und Lehrer bereits erste Lernplattformen, welche eine KI benutzten, um Prüfungsaufgaben auszuwerten. Da die Korrektur von Prüfungsantworten eine Aufgabe sei, die sich eher einfacher automatisieren lasse, könnten Korrekturen in kürzerer Zeit durchgeführt werden. Dadurch bliebe mehr Zeit für eine sorgfältige Kontrolle der Korrekturen und eine Nachbereitung der Prüfungen. Ebenfalls ein grosses Potenzial sieht der Rektor für die Informationsbeschaffung von Schülerinnen und Schülern sowie von Lehrpersonen: Die neuen Tools könnten es erleichtern, sich einen ersten Überblick zu einem Thema zu verschaffen. Wichtig sei allerdings, dass man kritisch hinterfrage, was einem das Tool liefere, und zusätzliche Arbeit investiere, um wirklich Bescheid zu wissen, betont Weber. Der zentrale Punkt sei hier, sich bewusst zu sein, dass der Output von Textrobotern stark vom Input abhänge, den man ihm gebe: «Wie man in den Wald ruft, so schallt es zurück.» Es sei Aufgabe der Schule, den Schülerinnen und Schülern beizubringen, wie man eine KI richtig mit Input füttere.

Daher ist es dem Rektor der Kantonsschule auch wichtig, in der Schule hinter die Kulissen zu blicken und zu verstehen, wie KI-Tools arbeiten. Hier sei die Schule bereits im Gespräch mit der pflanzenwissenschaftlichen Abteilung der ETH, welche eine KI zur Pflanzenbestimmung einsetze und Projekte lanciere, um sowohl Schülerinnen und Schülern als auch Lehrpersonen an diesem Beispiel die Funktionsweise eines KI-Tools zu erläutern. Dazu gehöre auch zu verstehen, warum Chatbots Fehler produzieren (wissenschaftlich auch «Halluzinationen» genannt). Hier sei das Unterrichtsfach Informatik in besonderem Masse gefordert, um gemeinsam mit den Schülerinnen und Schülern die Mechanismen von Chatbots zu analysieren, sagt Weber.

Taschenrechner, Duden, ChatGPT

Mit Blick auf die Zukunft bezweifelt der Rektor, dass KI-Tools den Unterricht oder das Lernen an Gymnasien fundamental beeinflussen werden. «Es ist ein Tool, ähnlich wie Taschenrechner oder Duden, welches wir gezielt einsetzen werden, um gewisse Aufgaben zu erleichtern», erklärt er. Bereits jetzt sei es für gewisse schulische Arbeiten durchaus erwünscht und erlaubt. Vorstellbar sei seiner Meinung sogar der Einsatz eines Chatbots an gewissen Prüfungen, beispielsweise Fehlerkorrektur-Tools einzusetzen, was die Schülerinnen und Schüler sehr begrüssen würden. Auch die Rolle der Gymnasien werde sich nicht verändern. Kantonsschulen haben also weiterhin die Aufgabe, junge Menschen zu kritischen, eigenständig denkenden Persönlichkeiten zu erziehen, sie bestmöglich auf das Studium und die Arbeitswelt vorzubereiten – und ihnen unterschiedlichste Materialien und Tools zur Verfügung zu stellen, mit deren Hilfe sie lernen und experimentieren können. Der Chatbot kann da durchaus zu einem wichtigen Helferlein werden. Und Hand aufs Herz, liebe Leserinnen und Leser: Können Sie sich zu hundert Prozent sicher sein, dass dieser Artikel nicht von einem solchen verfasst ist?

Kann KI moralisch urteilen?
Beim Schreiben von Texten, Suchen von Informationen und der Kreation von Dialogen liefert ChatGPT schon fast menschengleiche Resultate. In einem Punkt weist der Chatbot jedoch viele Mängel auf: Er ist nicht in der Lage, eigenständige Schlüsse zu ziehen und dabei z.B. ethisch zu urteilen. Wovon hängt es ab, ob künstliche Intelligenz eigenständige moralische Ansichten vertreten kann? Die Einschätzung, welche Normen richtig seien und sich in einer Weise begründen lassen, dass sie für alle gelten, bleibe bis dato den Menschen vorbehalten, äussert sich der Ethiker Jean-Daniel Strub. Auch könne ChatGPT keine eigene Meinung formulieren, denn das Programm greift auf diejenigen Daten zurück, die es vorfindet, und somit auch auf Bewertungen moralischer Fragen, die zuvor von anderen vorgenommen wurden. Den Gedanken, dass ein Chatbot dereinst in der Lage sein könnte, gefühlsmässige Reaktionen zu entwickeln, wie beispielsweise intuitive Empörung, und zugleich durch maschinelles Lernen in die Lage versetzt wird, das bestehende moralische Verständnis eigenständig weiterzuentwickeln und eigene ethische Urteile zu fällen, findet nicht nur Jean-Daniel Strub durchaus beunruhigend.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert