Zum Inhalt springen

FH-Storys

ChatGPT, Perplexity und Co: Was bringt KI im Studium?

Studierende an der Fachhochschule Südwestfalen in Iserlohn lernen den kritischen Umgang mit Künstlicher Intelligenz

Es ist aber auch verführerisch. Plötzlich liegt da so etwas wie ein Zauberstab auf dem Silbertablett. ChatGPT heißt das Wunder aus dem Web. Künstliche Intelligenz ist seine Lebensquelle. Fürs Lernen, Lehren und Korrigieren ist all das eine riesige Herausforderung. Prof. Dr. Michael Marré vom Fachbereich Maschinenbau der Fachhochschule Südwestfalen in Iserlohn lässt die Studierenden ausprobieren. Und setzt auf den Lerneffekt.

Chance oder Gefahr?

Verbieten oder verwenden? Überall, wo Prüfungen anstehen, sind ChatGPT und andere Bots schon da. Das gilt natürlich auch für die Fachhochschule Südwestfalen in Iserlohn. Prof. Dr. Michael Marré lehrt dort am Fachbereich Maschinenbau. Vom Verbieten hält er wenig. Er möchte, dass die Studierenden selber lernen, was KI kann. Und was nicht. In einem Seminar ließ er sie die Themen ihrer Arbeiten doppelt recherchieren. Einmal mit Hilfe von Chatbots und einmal auf die klassische Weise. Mit Literatur.

Künstliche Intelligenz vs. Literatur

Alexander Sommer und Marvin Leding bekamen von Michael Marré genau diesen Sonderauftrag. Für ihre schriftlichen Abschlussarbeiten im Seminar Digitale Transformation in der Fügetechnik durften, nein mussten sie den Pakt mit der Künstlichen Intelligenz eingehen. Ihr erster Eindruck: „Wahnsinn“, sagt Alexander Sommer, „innerhalb von ein paar Sekunden bekommt man einen zusammenhängenden Text. Ein Unikat.“ „Und der liest sich echt super“, ergänzt Marvin Leding. Die beiden Fertigungstechnik-Studenten testeten natürlich nicht nur ChatGPT, sondern bis zu 15 weitere Bots. Jeder hat nämlich andere Stärken. „ChatGPT liefert keine Quellen, Perplexity zum Beispiel schon“, erläutert Alexander Sommer. Generell arbeiten aber alle Bots nach dem gleichen Prinzip. Nach Wahrscheinlichkeit. „Sie spucken aus, was der Fragensteller wahrscheinlich wissen will“, erklärt Marvin Leding.

Bots: Im Detail unscharf

Und genau da liegt ein großes Problem. Die KI-Antworten sind wahrscheinlich richtig. Vielleicht aber auch nicht. „Und je komplexer die Fragestellung ist, desto wahrscheinlicher ist die Antwort nicht vollständig korrekt“, sagt Alexander Sommer. In seiner Arbeit hielt er die Literatur-Recherche dagegen und konnte die Künstliche Intelligenz damit vielfach überführen. „Im Großen und Ganzen passte das schon“, so sein Urteil, „aber im Detail sind die Bots unscharf oder liegen daneben. In der Fertigungstechnik reicht das nicht.“

Nicht nur ChatGPT: Alexander Sommer und Marvin Leding testeten mehrere Bots.

Gute Werkzeuge für den ersten Überblick

In künftigen Arbeiten wollen die beiden Studierenden dennoch nicht gänzlich auf KI verzichten. „Das sind gute Werkzeuge, um einen Überblick zu bekommen. Sie können auch helfen, Arbeiten sinnvoll zu gliedern“, so Marvin Leding. Den Segen von Michael Marré haben sie dazu. „Es macht ja gar keinen Sinn, diese Tools zu verbieten. Sie sind da und werden sich durchsetzen“, so der Professor. Er setzt stattdessen auf Abschreckung mittels Aufklärung: „Es macht mir Sorgen, wenn die Studierenden blauäugig mit diesen Werkzeugen umgehen. Hier ist Unterstützung gefragt und die Vermittlung der Kompetenz, KI-Ergebnisse kritisch zu hinterfragen.“ Darüber hinaus ist es ihm generell wichtig, derartige Lernprojekte zu etablieren. „Wenn man Fertigungstechnik hört, klingt das vielleicht nach schmutzigen Händen, aber dieser hochmoderne Studiengang und spätere Jobs sind völlig digitalisiert und wie man an diesem Beispiel sieht auch echte Teamarbeit“, so Marré.

ChatGPT: Gut, aber nicht gut genug

Aber was wäre, wenn man Michael Marré eine Arbeit vorlegen würde, bei der ChatGPT und seine Verwandten großzügig geholfen hätten. Würde der Professor das merken? „Ja“, sagt er, „bestimmte Formulierungen kommen immer wieder vor. Außerdem findet neben einer Plagiatsprüfung auch eine KI-Prüfung statt.“ Alexander Sommer und Marvin Leding würden es gar nicht erst versuchen. Bei ihnen hat Michael Marré den Groschen fallen lassen: ChatGPT ist gut. Aber nicht gut genug.