Zum Inhalt springen

ChatGPT: Herausforderung auch für die Hochschulen?

Interview mit Prof. Dr. Heiner Giefers

Der von der US-Firma OpenAI entwickelte Text-Roboter ChatGPT, eine Sprachsoftware mit künstlicher Intelligenz (KI), ist zurzeit Gesprächsthema – auch an den Hochschulen. Denn in Sekundenschnelle kann das Programm mit ausgezeichneter Sprachqualität nicht nur Reden ausarbeiten oder Geschichten erzählen, sondern könnte auch für das Ausarbeiten akademischer Haus- oder Projektarbeiten genutzt werden. Impuls sprach über ChatGPT mit Prof. Dr. Heiner Giefers, der das Lehrgebiet Cloud Computing im Fachbereich Informatik und Naturwissenschaften in Iserlohn vertritt.

Impuls: Wie ist ChatGPT in der KI-Welt einzuordnen?

Prof. Giefers: Die Ergebnisse, die die großen KI-Forschungseinrichtungen in den letzten Jahren publiziert haben sind sehr erstaunlich. Googles AlphaFold ( https://www.deepmind.com/research/highlighted-research/alphafold) könnte Anwendungen in der Biologie und Medizin revolutionieren, mit DALL-E ( https://openai.com/dall-e-2) hat OpenAI ein erstaunliches System zur Erzeugung von Bildern aus textuellen Beschreibungen veröffentlicht und Microsofts VALL-E ( https://valle-demo.github.io) kann Texte in der Aussprache von beliebigen Personen imitieren. ChatGPT gehört ebenfalls in diese Reihe und bei diesem Modell ist für mich besonders beeindruckend, wieviel Wissen in das Modell integriert ist. ChatGPT kann so unterschiedliche Formate wie Sachtexte, epische und lyrische Texte oder Programmcode erzeugen und damit auch verschiedene Themen zusammenbringen.

(Anders als klassische Suchmaschinen, findet ChatGPT nicht bloß relevante Inhalte im Internet, sondern es hat einen großen Teil der digital im Netz verfügbaren Texte „aufgesogen“ und kann die Informationen daraus zu beliebigen Fragestellungen rekombinieren.)

Impuls: Haben Sie selber Erfahrungen mit GPT?

Prof. Giefers: Über ein paar verschiedenartige Anfragen habe ich versucht, die Fähigkeiten von ChatGPT auszuloten und bin über dessen Fähigkeiten verblüfft. Bei Mathematik- und Programmieraufgaben etwa, liefert ChatGPT sehr gute und ausführlich erklärte Lösungen. Ich habe dem Programm einige Praktikums- und Klausuraufgaben aus verschiedenen Vorlesungen gestellt, die es überwiegend mit Bravour gelöst hat.

Impuls: Glauben Sie, dass die Studierenden die Sprachsoftware nutzen werden bzw. haben Sie dazu von Ihren Studierenden schon eine Rückmeldung erhalten?

Prof. Giefers: Davon muss man ausgehen. Die Studierenden kennen ChatGPT und es gab bereits einige Rückfragen inwieweit es eingesetzt werden darf. Die Nutzung von Werkzeugen wie ChatGPT wird erheblichen Einfluss darauf haben, wie Studierende bei der Bearbeitung von Aufgaben vorgehen und damit auch darauf, welche Art von Aufgabenstellungen zukünftig zur Überprüfung von Fachkompetenzen noch angemessen sind.

(Als Analogie kann man etwa den Taschenrechner heranziehen: So wie der Taschenrechner viele Rechenaufgaben trivial macht, wird durch ChatGPT das Lösen von komplexeren Fragestellungen automatisiert. In der Schule setzen wir den Taschenrechner ein, verlangen aber von den Schülern, mathematische Operationen auch „per Hand“ ausrechnen zu können. Ich finde schon, dass man sich von Programmen wie ChatGPT helfen lassen kann und sollte, ohne dabei aber „hilflos“ zu werden, in dem Sinne, dass man eigene Kompetenzen verliert.)

Impuls: Gibt es Möglichkeiten, GPT erstellte Texte zu erkennen?

Prof. Giefers: Ja, da gibt es bereits erste Lösungen. GPTZero ( https://www.heise.de/news/GPTZero-App-soll-von-KI-wie-ChatGPT-geschriebene-Texte-erkennen-koennen-7452141.html) analysiert die Wortwahl eines Textes nach statistischen Gesichtspunkten und kann so auf einen von ChatGPT erstellten Text schließen. Andere Ansätze verwenden ganz ähnliche Neuronale Netze wie sie in ChatGPT selbst stecken, um generierte und von Menschen verfasste Texte zu unterscheiden.

Impuls: Sehen Sie Gefahren für Haus- oder Projektarbeiten? Einige Hochschulen überlegen ja schon, verstärkt auf mündliche Prüfungen auszuweichen.

Prof. Giefers: Ich denke, man muss das differenziert sehen. Momentan hat ChatGPT noch deutliche Schwachstellen. Auch wenn die Resultate schon heute "erstaunlich" sind, kommt es doch in den generierten Texten immer wieder zu schwerwiegenden Fehlern oder absurden Passagen. Auf der Homepage schreibt OpenAI: "ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers." So etwas würde vermutlich in einer Ausarbeitung auffallen. Was bei ChatGPT völlig fehlt, ist der Nachweis von Informationen durch die Angabe von Quellen. Schlimmer noch, das Programm „erfindet“ auf Nachfrage Quellenangaben, die passend aussehen, tatsächlich aber überhaupt nicht existieren. Vielleicht liegt hierin auch für uns als Hochschule eine besondere Herausforderung, nämlich unseren Studierenden nachhaltig eine wissenschaftliche Arbeitsweise zu vermitteln, die sie in die Lage versetzt, Fachtexte korrekt zu verfassen.

ChatGPT und seine Nachfolger bieten eine völlig neue Form der Internetrecherche und werden damit in Zukunft viele Arbeitsprozesse, nicht nur an Schulen und Hochschulen, umgestalten. Da die Technologie nun existiert und zudem überaus leistungsfähig ist, sollte man eher versuchen, sie sinnvoll einzusetzen statt etwa die Nutzung zu verbieten.