Künstliche Intelligenz (KI) in der Hochschullehre

Autorin: Vida Bicman

Das kalifornische Unternehmen OpenAI hat im November 2022 die Beta-Version seines Chatbots Chat GPT veröffentlicht und löste damit eine Revolution der Content-Generierung aus.

ChatGPT ist ein künstliches Sprachmodell, das große Datensätze analysiert und Wahrscheinlichkeiten berechnet, welche Worte auf welche Art am häufigsten kombiniert werden. Es kann Sprache gut simulieren und würde wahrscheinlich den Turing Test überstehen, d.h. es könnte täuschend echte menschliche Sprache formulieren. Das ist allerdings nicht „Denken“ und „Wissen“, wie wir es beim Menschen verstehen. KI hat kein menschliches Einfühlungsvermögen und ein schwaches Verständnis von Kontext. So neigt sie zum Über-erklären von Offensichtlichem oder Naheliegendem, und versteht Kontext nur bedingt. ChatGPT ist letztendlich ein hocheffizientes Plagiatstool ohne tieferes Sprachverständnis.

Nichtsdestotrotz wird das täglich zunehmende Angebot an KI-basierter Software einen signifikanten Einfluss auf die Hochschullehre nehmen. Das birgt sehr viel Potential, aber auch einiges an Risikofaktoren, die bei der Erstellung und Bewertung von Arbeitsaufträgen zu berücksichtigen sind. Die Qualität der Ergebnisse hängt einerseits von den Datensätzen ab, die der KI zur Verfügung stehen, als auch der Präzision der Befehle, die von Benutzer*innen eingegeben werden.

Hier sind einige Anwendungsmöglichkeiten von KI in der Hochschullehre:

  1. Große Datenmengen können zusammengefasst, analysiert oder verglichen werden.
  2. Content kann in unbegrenzter Vielfalt generiert werden, z.B. Antworten auf offene und geschlossene Fragen, Aufsätze, Essays, Abstracts, wissenschaftliche Arbeiten, Zusammenfassungen, Marketing Copy, Bildunterschriften, Formulareingaben, Computer-Code, Code-Erklärungen, Kommentare, Präsentationen, Texte zu Videos umwandeln, um nur einige zu nennen.
  3. Lehrende können mittels KI LV-Konzepte schreiben lassen oder Aufgaben für Studierenden konzipieren lassen.
  4. Lehrende können mittels spezieller Software abgegebene Arbeiten auf KI-Ursprung analysieren. (originality.ai oder gptzero.me)
  5. Chat-Bots können als Tutoren Studierende im Lernprozess unterstützen, indem sie ihre Fragen beantworten und ihr Wissen vertiefen, was auch die barrierefreie Lehre erleichtert.

 

So hat ChatGPT die gleiche Frage („Wie kann künstliche Intelligenz in der Hochschullehre eingesetzt werden?“) beantwortet:

  1. Künstliche Intelligenz kann zur automatisierten Erstellung von Tests, Fragebögen und Quizzen verwendet werden.
  1. Eine intelligente Suchfunktion kann den Studenten helfen, schneller die benötigten Informationen zu finden.
  1. AI kann in Form von Chatbots verwendet werden, um Studenten zeitnahe Unterstützung bei allgemeinen Anfragen oder Problemen zu bieten.
  1. KI-basierte Systeme können dazu beitragen, personalisierte Lernprogramme zusammenzustellen, die auf individuelle Bedürfnisse der Studenten abgestimmt sind.
  1. AI kann auch verwendet werden, um eine vollständige digitale Lehrumgebung zu schaffen, in der das gesamte Studium online absolviert werden kann.

 

Die Nachteile:

  • ChatGPT schwafelt gerne. Die Befehle müssen präzise sein und es bedarf etlicher Unterfragen oder Umformulierungen, um gute Ergebnisse zu erhalten.
  • Man kann nicht allem, was KI generiert, Glauben schenken. So passiert es immer wieder, dass fiktive Studien oder tote Links als Antworten angegeben werden.
  • ChatGPT weiß nicht alles und lernt auch nicht aus dem direkten Austausch mit den Benutzer*innen, sondern nur anhand der im Hintergrund vorhandenen Datensätze, die sich durch den direkten Austausch mit dem User nicht verbessern. Wenn man den Bot darauf hinweist, dass er eine Frage falsch beantwortet hat, bekommt man eine Entschuldigung und ein Versprechen, dass er sich verbessern möchte. Wenn man die gleiche Frage danach noch einmal stellt, kommt wieder eine falsche Antwort.
  • ChatGPT liefert durchwegs beeindruckende Ergebnisse, allerdings bleiben diese oft oberflächlich. Um ein Beispiel aus der Lehre zu geben; ich habe ChatGPT nach Case Studies von Firmen gefragt, die mittels CRM gute Ergebnisse erzielen konnten, woraufhin der Chat-Bot drei große Firmen und recht allgemeine Maßnahmen genannt hat. Als ich weitere Details wollte, konnten diese nicht generiert werden.
  • Was derzeit noch nicht gut funktioniert ist die Suche nach Online-Lehrmaterial mittels einer Bot-Unterhaltung, weil diese meist erfundene URLs als Verweis anbietet, die nicht zu echten Webseiten führen.
  • Bei Online-Prüfungen besteht die Möglichkeit, dass Studierende mittels KI-Plugin oder einfach mittels eines offenen Tabs Antworten auf Prüfungsfragen schreiben lassen. Das ist kein klassisches Plagiat, weil die von KI generierten Antworten von niemandem zuvor verfasst wurden. Man kann die Antworten auch nicht identisch reproduzieren, weil die Antwort auf die gleiche Frage von KI immer etwas anders beantwortet wird. Rechtlich gelten von KI verfasste Texte derzeit nicht als Plagiat.
  • Für wissenschaftliches Arbeiten stellt sich zukünftig die Frage nach der Eigenständigkeit. Kann man noch als Autor*in einer Arbeit gelten, die zum (Groß-)Teil von KI geschrieben wurde? Wir stehen vor der Herausforderung neue ethische Standards und eine angepasste Gesetzlage zu schaffen, um den neuen Gegebenheiten gerecht zu werden.
  • ChatGPT erkennt nicht die Bedeutung von Wortreihenfolgen. Wenn man DALL-E 2, eine OpenAI Software für das Generieren von Bildern, bittet, einen blauen Würfel auf einem roten Würfel zu zeichnen, wird das System den Zusammenhang nicht verstehen:

 

Umgekehrt, beim Befehl einen roten Würfel auf einem blauen Würfel zu zeichnen, ist die KI ebenfalls überfordert:

Solche Ergebnisse legen nahe, dass die KI die Zusammenhänge der Welt nicht wirklich versteht.

  • Die größte Gefahr, die von ChatGPT ausgeht, ist das Potential für das Verbreiten von falschen Informationen, mit denen Bot-Farms das Internet überfluten könnten. Zurzeit sind Informationen im Netz, ob richtig oder falsch, zum Großteil von Menschen geschrieben worden. Das könnte sich in Zukunft ändern und das Potential für Falschinformationen ist groß.

Sprachmodelle wie ChatGPT werden einige Prozesse effizienter machen. Für Lehrende und Studierende kann es ein interessantes Spielzeug sein, aber es hilft uns nicht beim Verstehen der menschlichen Denkprozesse oder von Zusammenhängen. Es erfordert kritisches Denken und eine Umgestaltung einiger Arbeitsaufträge an die Studierenden. Das beste Mittel gegen ChatGPT ist spannende und kreative Lehre seitens der Lehrenden, und intrinsische Motivation seitens der Studierenden.

ÜBER DIE AUTORIN

Mag.a Dr.in  Vida Bicman ist Koordinatorin für Sprachen und hauptberufliche Lektorin an der FH CAMPUS 02.