Cheaten wird nicht mehr bestraft – Darum schmeißen Unis KI-Erkennung raus

2 Minuten
Mussten Studenten jüngst mit schwerwiegenden Konsequenzen rechnen, wenn sie Sprachmodelle wie ChatGPT verwendeten, um ihre Essays zu verfassen, ist dem oftmals nicht mehr der Fall. Viele Universitäten deaktivieren gegenwärtig ihre KI-Erkennungs-Tools. Und dafür gibt es gute Gründe.
ChatGPT, Betrug, Cheat, Schule, Hausarbeit
Unis verzichten auf KI-ErkennungBildquelle: kriangkrainetnangrong / shutterstock.com

Unter Schülern und Studenten verbreitete sich das KI-basierte Sprachmodell ChatGPT wie ein Lauffeuer. Bereits im Mai 2023 gaben 53 Prozent der befragten Schüler in Deutschland an, das Tool genutzt zu haben. Mittlerweile dürfte diese Zahl noch einmal angestiegen sein. Kein Wunder also, dass Lehreinrichtungen versuchten, gegenzusteuern. Die wohl wichtigste Maßnahme in diesem Kontext stellt der Einsatz sogenannter KI-Erkennungstools dar. Diese analysieren Hausarbeiten, Hausaufgaben und Co. und geben an, ob besagte Arbeit – oder Teile davon – von einem Menschen oder einer KI (Künstliche Intelligenz) stammen. Nun scheinen Universitäten jedoch plötzlich zurückzurudern und die Erkennungs-Software abzuschalten.

Kehrtwende: Unis plötzlich gegen KI-Erkennung

Nach Informationen von Bloomberg verzichten mehrere große Universitäten in den USA wieder auf Software zur KI-Erkennung. Dazu gehören unter anderem die Vanderbilt University, die Michigan State University, die Northwestern University und die University of Texas at Austin. Hier soll die Software aus dem Hause Turnitin nicht mehr zum Einsatz kommen. Der Grund ist dabei recht simpel: Die Einrichtungen wollen verhindern, dass Studierende fälschlicherweise des Betrugs beschuldigt werden. Eine Befürchtung, die nicht aus der Luft gegriffen ist. Denn wie Turnitin selbst angibt, besteht bei Dokumenten eine Wahrscheinlichkeit von 1 Prozent, dass diese fälschlicherweise als automatisch generiert eingestuft werden. Bei einzelnen Sätzen steigt die Wahrscheinlichkeit zudem auf 4 Prozent. Das klingt zwar beides nicht nach viel. Doch bei hunderttausenden oder gar Millionen jährlich eingereichten Arbeiten fallen die Zahlen der fälschlicherweise beschuldigten Studenten dennoch ins Gewicht.

Die Wortwahl von OpenAI, dem Unternehmen hinter ChatGPT, ist derweil deutlich drastischer. Demnach hätte keine KI-Erkennungs-Software bewiesen, verlässlich zwischen KI-generierten und von Menschen verfassten Inhalten unterscheiden zu können. Das gelte auch für das hauseigene Erkennungstool, das OpenAI aus ebenjenem Grund bereits im Juli offline nahm.

Mehrheit setzt nach wie vor auf KI-Erkennung

Dass künftig weitere Lehreinrichtungen zur gleichen Einschätzung kommen und KI-Erkennungstools verbannen, ist recht wahrscheinlich. Zumal schlechte Benotungen mit Blick auf die zuvor aufgeführten Sachverhalte alles andere als unanfechtbar zu sein scheinen. Dennoch sollen laut Turnitin 98 Prozent der Institutionen, die dessen Plagiatssoftware nutzen, nach wie vor auch die Funktionen zur KI-Erkennung verwenden.

Wenn du wissen möchtest, wie sich ein gänzlich von einer Künstlichen Intelligenz generierter Ratgeber liest, empfiehlt sich ein Klick auf den folgenden Artikel:

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein