Generative KI ist gekommen, um zu bleiben, auch in der Bildung. Was bedeutet das für unseren Auftrag als Hochschulen? Ein Gastbeitrag von Jörn Schlingensiepen.
Jörn Schlingensiepen ist Professor für Ingenieurinformatik und computergestützte Produktentwicklung (CAD/CAE) an der Technischen Hochschule Ingolstadt. Foto: Dinias/Nicole Dietzel.
GENERATIVE KI wird an Schulen und Hochschulen heute flächendeckend eingesetzt. Etwas anderes zu behaupten, wäre naiv. Keine andere Technologie hat sich in der Geschichte der Menschheit so schnell durchgesetzt wie die Textgeneratoren, die auf den sogenannten Large Language Models (großen Sprachmodellen) basieren. Allein die Nutzerzahlen des Dienstes ChatGPT zeigen dies auf brutalstmögliche Weise: Während das Mobiltelefon 16 Jahre, das Internet sieben Jahre und Facebook 4,5 Jahre brauchten, um jeweils 100 Millionen Anwender zu finden, brauchte ChatGPT ganze zwei Monate (sic!). Der Drops ist also gelutscht, jeder, der irgendwas mit Texten macht oder gar welche schreibt, nutzt ein solches Tool. Zu den Anwendern von ChatGPT kommen ja noch diejenigen dazu, die andere Dienste oder in Anwendungen integrierte Assistenten nutzen (zum Beispiel einen der Co-Pilots, Bard, YouChat oder Claude).
Müßige Debatten über
Plagiate und Grauzonen
Gehen wir also davon aus, dass alle unsere Studierenden und wahrscheinlich auch alle Kolleginnen und Kollegen sich durch generative KI unterstützen lassen, und das ist aus meiner Sicht auch erstmal gut so. Die Diskussionen, ob man damit ein Plagiat begeht oder vielleicht "nur" eine Grauzone betritt, sind aus meiner Sicht müßig. Die Produktion von Text und vieler anderer Medien wird in Zukunft mit dieser Unterstützung erfolgen.
Gerade deshalb müssen Studierende lernen, mit diesen Tools zu arbeiten. Und Hand auf’s Herz: Wer hat sich nicht schon öfter geärgert, dass ein Labor- und Projektbericht oder eine Abschlussarbeit Abstriche erhielt, weil die guten Ideen, die jemand hatte, nicht adäquat abgebildet wurden? Oft kann man einen solchen Text nicht weiter verwenden und Lesende, die weiter an dem Thema arbeiten wollen, können nicht auf den maximal erreichten Kenntnisstand zurückgreifen, weil er nicht ordentlich aufgeschrieben wurde. Wie sollen wir auf den Schultern von Giganten stehen, wenn wir nicht hochklettern können? Meine These: Wenn Abbildungen, Texte und damit die Weitergabe neuer Erkenntnisse besser gelingen, dann profitieren wir alle davon.
Die KI trifft auf eine ohnehin
schon verunsicherte Gesellschaft
Bei meinem letzten Beitrag an dieser Stelle habe ich mich ja schon als eine Art Fan-Boy von ChatGPT und Co. geoutet. Man möge mir als Ingenieur eine gewisse Grundbegeisterung für neue Technik verzeihen. Mit bloßer Begeisterung ist es aber nicht getan. Mir fehlt eine breite Debatte darüber, wie wir mit gesellschaftlichen Unsicherheiten umgehen, die dadurch entstehen, dass Fälschungen durch KI immer besser werden und es damit schwerer wird, die Wahrheit von Lügen zu unterscheiden. Das Vertrauen in den Staat ist auf einem für die Bundesrepublik historischen Tiefststand angekommen, schon heute scheint es schwierig, Informationen richtig einzuordnen.
Umso wichtiger ist es, dass wir uns auf den Auftrag, den das Hochschulrahmengesetz uns Hochschulen gibt, besinnen. Dort heißt es in Paragraph 7 zum Ziel des Studiums: "Lehre und Studium sollen den Studenten [...] die [...] erforderlichen fachlichen Kenntnisse, Fähigkeiten und Methoden [...] so vermitteln [...], dass er zu verantwortlichem Handeln in einem freiheitlichen, demokratischen und sozialen Rechtsstaat befähigt wird." Wenn Inhalt immer häufiger automatisch erstellt wird, dann wird die Fähigkeit zur Bewertung und Einordnung zur entscheidenden Kernkompetenz. Lehre und Studium müssen dies abbilden.
Als Hochschulen auf
unseren Auftrag besinnen
Einige Ideen, dies für die fachlichen Inhalte anzugehen, finden sich im Positionspapier des Hochschullehrerbundes (hlb), an dessen Erstellung ich mitwirken durfte:
o Wir müssen akzeptieren, dass KI-Anwendungen nicht mehr nur punktuell von Experten zur Lösung konkreter Aufgaben genutzt werden, sondern universell einsetzbar sind, und zwar durch jeden und jede. Die neuen generativen KI-Anwendungen sind eine Systeminnovation, die Auswirkungen auf alle Lebensbereich hat.
o Wir müssen uns von der Vorstellung verabschieden, dass die Verwendung dieser Hilfsmittel im Studium oder bei der Erstellung von Haus- und Abschlussarbeiten mit der Intention des Schummelns erfolgt.
o Zur Vorbereitung auf das Berufsleben ist es nötig, dass unsere Studierenden den Umgang mit diesen Technologien erlernen. Deshalb müssen – analog zu Büchern und Datenbanken – Zugänge für alle Studierenden geschaffen werden, vor allem durch den Erwerb der entsprechenden Lizenzen.
o Die Lehre muss sich den neuen Gegebenheiten anpassen. Es müssen neue Betreuungs- und Lernformen entwickelt und dafür passende Rahmenbedingungen geschaffen werden. Der Erwerb von Kompetenzen muss im Vordergrund stehen. Professorinnen und Professoren können dies gestalten und brauchen entsprechende Freiheiten.
o Wir brauchen eine Rückbesinnung darauf, was der Zweck des Studiums und innerhalb dessen der Zweck einer Prüfung ist. Es sollen Kompetenzen erworben werden, und eine Prüfung dient – wie der Name schon sagt – zur Überprüfung, ob Studierende über diese Kompetenzen verfügen. Im Idealfall beweisen sie es dadurch, dass sie eine einschlägige Aufgabe unter realen Bedingungen bewältigen.
"Ist das Kompetenz,
oder kann das weg?"
Verkürzt stellt sich also die Frage: "Ist das Kompetenz, oder kann das weg?" Und wenn man es noch braucht, lautet die nächste Frage: "In welcher Form, und wie lässt es sich am besten vermitteln und prüfen?"
Im vergangenen Semester führte ich dazu ein Experiment durch: Im Kurs Ingenieurinformatik gestaltete ich den Kurs und die Prüfung so, dass Werkzeuge zur Codegenerierung genutzt werden. Eine detaillierte Auswertung steht noch aus, aber es hat sich gezeigt, dass mehr Zeit für anspruchsvolle Kompetenzen wie Abstraktion und Modellbildung gut investiert war und zugleich weniger Frust durch das Verheddern in abstrakter Syntax auftrat. Zugegeben: Das ist jetzt nur ein erstes Beispiel und nicht ohne Weiteres auf andere Fächer übertragbar. Aber grundsätzlich glaube ich, dass alle Lehrenden für ihr Fachgebiet bewerten können, welche Kompetenzen nicht oder verändert gebraucht und geprüft werden müssen und wie generative KI-Anwendungen dabei helfen können.
Wenn wir Menschen ausbilden, die mit diesen Werkzeugen arbeiten können und deren Funktionsweisen und Grenzen kennen, dann könnten wir bei der Gelegenheit auch die gesellschaftlichen Implikationen und das verantwortungsvolle Handeln betrachten.
Vielleicht bekommen wir dann endlich eine breitere Debatte. Ich bin da optimistisch: Die aktuelle Studierendengeneration beweist jeden Tag, dass sie interessiert, gestaltungswillig und kampagnenfähig ist.
Kommentar schreiben
Schnuffle (Freitag, 08 September 2023 15:48)
Hallo Jörg,
ich teile deine generell eher positive Betrachtung des Tools "generative KI", sehe aber ein grosses Problem, dass sich in deiner Abhandlung nicht oder nur indirekt erwähnt wird.
Die neuen Tools werden nach meiner Einschätzung zu einer noch grösseren Spaltung der Gesellschaft führen, diejenigen die mit den Tools umgehen können, ziehen Denjenigen die sie nicht beherrschen noch stärker davon.
Es scheint mir dabei ein ähnlicher Effekt zu wirken, wie beim Aufkommen der Suchmaschinen. Das finden der Informationen wird stark gefördert, nur muss man am Ende die gelieferten Informationen auch verarbeiten - sprich verstehen - können.
Die Gefahr sehe ich jetzt darin, dass Menschen glauben, sie müssen nicht mehr die Mühe aufwenden ein Thema zu verstehen, da man ja eine fertige Lösung ohne Verständnis bekommt.
Dem ist nach meiner Einschätzung nicht so und es scheint mir also wichtig zu sein, Studenten zu befähigen sich Wissen anzueignen, um mit diesem Wissen die Tools produktiv nutzen zu können.
Gruss
Schnuffle
Jörn Schlingensiepen (Montag, 02 Oktober 2023 13:29)
Lieber Marc,
ja, das ist in der Tat ein Problem, aber Blogbeiträge sind wie Unix-Tools: Make each program do one thing well.
Daher hier nur ein Aspekt der ganzen Sache, neben der Allgemeinen Spaltung, sehe ich noch das Problem der Fragmentierung in kleine und kleinste Echokammern. Dazu hatte ich in meinem letzen Beitrag hier schon was geschrieben:
https://www.jmwiarda.de/2023/01/10/wer-hat-angst-vor-chatgpt/
Viele Grüße
Jörn