ChatGPT & Co. in der Bildung: Potenziale nutzen, Missbrauch verhindern

11. April 2024

Sie verfassen Texte, werten Daten aus und zeigen selbst bei Abschlussprüfungen renommierter Bildungseinrichtungen Leistungen auf menschlichem Niveau: Die Rede ist von Large Language Models (LLMs) wie ChatGPT oder Bard. Diese Art der Generativen Künstlichen Intelligenz bietet Chancen für das Lehren und Lernen. Gemäss OECD sollten Studierende sowie Schülerinnen und Schüler unter anderem ein umfassendes Verständnis für den Einsatz von KI-Systemen erwerben, um künftig besser damit arbeiten können. LLMs erleichtern aber auch das Schummeln und Plagiieren – eine Herausforderung, die im Bildungsbereich zunehmend kritisch diskutiert wird. Es braucht im Umgang mit diesen Tools deshalb eine klare Strategie und eine kritische Grundhaltung.

Von Prof. Dr. Thomas Rautenstrauch

Grosse Sprachmodelle (Large Language Models – LLMs), wie das von OpenAI entwickelte ChatGPT, Google’s Bard und andere basieren auf einer wissenschaftlichen Entwicklung, die als Transformator-Modell bekannt ist und von Google-Forschenden im Jahr 2017 entwickelt wurde. Sie sind mittlerweile in aller Munde und haben vor allem mit der Lancierung des ersten Prototyps von ChatGPT im November 2022 eine Art «Hype» für KI-Tools ausgelöst.

ChatGPT ist selbst ein Chatbot, der es Nutzerinnen und Nutzern ermöglicht, sich mit einem computerbasierten Agenten zu unterhalten, der übersetzen, Texte verfassen oder bei Bedarf auch Programmiercode auf einem Niveau erstellen kann, das die menschlichen Fähigkeiten nachahmt. GPT-4 ist das neueste und leistungsfähigste Sprachmodell, das mittlerweile bei mehreren akademischen und beruflichen Abschlussprüfungen, wie dem US-Rechtsanwaltsexamen oder der MBA-Prüfung der renommierten Wharton Business School an der University of Pennsylvania, Leistungen auf menschlichem Niveau gezeigt hat.

Angesichts der Fähigkeiten dieser Technologie mehren sich jedoch auch die Befürchtungen, dass LLMs unsere Arbeitswelt in vielen Bereichen in Zukunft nachhaltig beeinflussen werden. So könnten nach einer Schätzung von Goldman Sachs dadurch 300 Millionen Vollzeitbeschäftigte in grossen Volkswirtschaften der Automatisierung zum Opfer fallen.

Das Lernen und Lehren verändert sich

Angesichts der beachtlichen Möglichkeiten Generativer KI fragen sich auch viele Bildungseinrichtungen, wie sich die KI-Sprachmodelle auf das Lernen und Lehren auswirken und, wie sie sich angesichts eines wachsenden Einflusses dieser Technologie zukünftig ausrichten sollen. In einem Bericht der OECD aus dem 2. Quartal 2023 heisst es dazu, es sei jetzt noch dringender, zu überprüfen, was und vor allem wie gelehrt wird. Dies soll sich jedoch daran ausrichten, was Schülerinnen und Schüler sowie  Studierende im Zeitalter von Generativer Künstlicher Intelligenz können müssen. Gemäss der OECD sind dies:

  • Digitale Kompetenz und KI-Beherrschung: Lernende sollen ein umfassendes Verständnis für digitale Werkzeuge im Allgemeinen und für künstliche Intelligenz im Besonderen entwickeln, um diese effektiv nutzen zu können, weil davon auszugehen ist, dass sie in Zukunft immer enger mit KI-Systemen zusammenarbeiten werden.
  • Beherrschung des Lernens: Hier steht im Mittelpunkt, wie gelernt wird und wie Lernen verstanden wird.
  • Beherrschung des Wissens und Selbstregulierung: Die bedeutet, dass Lernende in der Lage sein sollen, ihre Fähigkeiten, Emotionen und ihr persönliches Umfeld richtig einzuschätzen.

Allerdings liess bereits die PISA-Studie von 2018 erkennen, dass Lernende heute zunehmend dadurch gefordert sind, wie man verzerrte Informationen erkennt und, wie Fakten und Meinungen richtig unterschieden werden. Technologie und KI sind und haben keine Zauberkräfte, doch können sie das Lernen und Lehren verstärken oder beschleunigen. Dennoch gehören Bedenken über den Missbrauch von LLMs und eine damit verbundene Verletzung der Integrität zu den am meisten diskutierten Themen in Bildungseinrichtungen.

Umgang mit KI-Anwendungen hinterfragen

Schliesslich besteht kein Zweifel, dass LLMs die Fähigkeit haben, Plagiate und Schummeln bei Aufgaben und Prüfungen zu ermöglichen, da Lernende nun in der Lage sind, Texte zu erstellen, die scheinbar Original zu sein scheinen, tatsächlich aber aus Online-Quellen kopiert sind. Trotz bereits existierender Tools zur Plagiatserkennung wurden rasch weitere Tools zur Erkennung von durch KI-generierte Texte entwickelt, die jedoch oft noch grosse Schwächen zeigen. Auch für Lehrkräfte gibt es mittlerweile Hilfestellung dazu, wie diese mit den Lernenden Normen für die Kennzeichnung von Texten vereinbaren oder wie sie Aufgaben stellen können, die nicht allein von LLMs erledigt werden können. Allerdings empfehlen heutige Bildungsexpertinnen und -experten, dass es im Hinblick auf den möglichen Einsatz von grossen Sprachmodellen wie ChatGPT eine klare Strategie innerhalb der Bildungseinrichtung sowie einen klaren pädagogischen Ansatz mit Schwerpunkt auf kritischem Denken und Massnahmen zur Faktenüberprüfung braucht, damit diese Technologie in vorhandene Lernumgebungen und Lehrpläne erfolgreich integriert werden kann.

Darüber hinaus sollten Lernende auch mit den kritischen Aspekten und Risiken von KI-Anwendungen vertraut gemacht werden. Dazu gehört die Einsicht, dass LLMs bestehende Vorurteile und Ungerechtigkeiten verstärken können, wenn sie beispielsweise mit Daten trainiert werden, die für bestimmte Gruppen von Personen voreingenommen, verzerrt bzw. unfair sind. Die Ergebnisse der Anwendung eines solchen Models könnten dann leicht zur Diskriminierung einzelner Gruppen bzw. Minderheiten führen, was wiederum Lehr- und Lernprozesse negativ beeinflusst. Vor diesem Hintergrund sollte – bei aller Begeisterung für die Technologie der Generativen KI – sichergestellt werden, dass die Integration von LLMs unabhängig von der jeweiligen Anwendungsdomäne die Anforderungen an Datenschutz, Sicherheit, Regulierung und ethisches Handeln erfüllt. Dies wird jedoch kaum ohne begleitende (menschliche) Überwachung und eine kritische, hinterfragende Grundhaltung realisiert werden können.


Prof. Dr. Thomas Rautenstrauch  ist Professor für Accounting & Corporate Finance am Institut für Finance und Law, Kompetenzzentrum Accounting & Corporate Finance. Nach dem Studium der Betriebswirtschaft und der Promotion in Wirtschaftsinformatik an der Universität Göttingen sammelte er mehrjährige Fach- und Führungserfahrung in der Wirtschaftsprüfung, im Corporate Controlling und im Management Consulting. Er leitet den MAS Finanzielle Führung an der OST – Ostschweizer Fachhochschule. Das Studienprogramm vermittelt unter anderem Kompetenzen, um die digitale Transformation des Finanzbereichs professionell voranzutreiben.