Wir sollten akzeptieren, dass KI-gestützte Lehre der neue Normalfall sein wird. Wie verändert das unser Selbstverständnis und unsere Rolle als Hochschullehrende? Ein Gastbeitrag von Marie Luise Schreiter.
Marie Luise Schreiter ist wissenschaftliche Mitarbeiterin und Dozentin am Psychologischen Institut der Universität Tübingen. Foto: privat.
BEVOR KI-SYSTEME perfekte Sätze formulieren konnten, die klingen, als würde ein Experte aus Wissenschaft, Politik oder Gesellschaft reden, war künstliche Intelligenz (KI) ein Nischenthema. An der University of Sussex, wo ich studiert habe, waren die Fragen nach der Schnittstelle von KI, Robotik und Bewusstsein und ihrer Interaktion mit der menschlichen Intelligenz dagegen schon früh Thema für Wissenschaftler aus verschiedenen Disziplinen.
Was ich davon gelernt habe, was ich in der heutigen Debatte manchmal vermisse und was ich selbst heute als Wissenschaftlerin vertrete: Bei all dem Hype um die rasante Entwicklung der Künstlichen Intelligenz, all den (berechtigten und unberechtigten) Spekulationen über ihre Fähigkeiten und ihr gesellschaftliches Veränderungspotenzial ist zentral, dass wir Menschen unsere eigene Rolle im Umgang mit KI-Systemen besser verstehen. Nur dann können wir künftige KI-Entwicklungen mitgestalten. Als Lehrende und Forschende müssen wir uns fragen: Wie beeinflussen KI-Systeme die universitäre Lehre und die wissenschaftliche Arbeit? Und wie verhalten wir uns dazu?
Es ist unbestritten, dass generative KI die Geschwindigkeit, Präzision und möglicherweise auch die Qualität der Wissenschaft grundlegend verändern kann. KI-gestützte Literaturrecherche hilft bereits heute Neulingen, sich im Meer aus Publikationen zurechtzufinden. Noch während meines Studiums bedeutete die Einordnung neuer Literatur in den aktuellen Forschungsstand stundenlange Recherchen in Online-Bibliotheken und Fachzeitschriften. Natürlich hatte ich Zugang zu den einschlägigen Suchmaschinen für wissenschaftliche Recherchen, und die Ergebnisse wurden mir digital, organisiert und übersichtlich angezeigt. Aber welcher Autor in einem Bereich einflussreich war oder welcher Ansatz stark kritisiert wurde, musste ich mir durch Lesen und Schreiben selbst erarbeiten.
Die Studierenden in meinem Studiengang können heute die gleichen Herausforderungen in einem Bruchteil der Zeit bewältigen. Aktuelle wissenschaftliche KI-Anwendungen, die den wissenschaftlichen Prozess unterstützen, ermöglichen es, Forschungsartikel zu jeder Forschungsfrage in jedem Fachgebiet in Sekundenschnelle zusammenzufassen, die Zitieraktivität über viele Jahre hinweg von Originalarbeiten bis hin zu Folgepublikationen in einer interaktiven Netzgrafik farblich gekennzeichnet darzustellen oder die fachliche Kritik an einer bestimmten Methode oder Theorie wiederzugeben.
Perfekter Wissenschaftsjargon,
in Text gegossener Einheitsbrei
Die Zeiten und Arbeitsmethoden ändern sich schnell. Während vor zwei Jahren meine Studierenden noch sehr unsicher auf die Frage reagierten, ob sie jemals ChatGPT für ihre Hausarbeit verwendet hätten, antwortete mir der diesjährige Jahrgang mit einem erstaunten bis mitleidigen Gesichtsausdruck: "Immer!" Bedauernd vielleicht deshalb, weil unsere Studierenden sehr wohl wissen, dass die derzeitige universitäre Lehre nur oberflächlich auf den Einsatz von künstlicher Intelligenz zur Generierung von wissenschaftlichen Texten, Forschungsberichten, Analysen und Ideen vorbereitet ist. Mitleidig, vielleicht auch, weil ich als ihre Dozentin kaum überprüfen könnte, ob eine Prüfungsarbeit in Form eines Forschungsberichts oder eines Essays von einem Roboter namens ChatGPT geschrieben wurde. Wenn ich mich entschlösse, diese neuen Werkzeuge in dem Repertoire meiner Studierenden zu ignorieren, würde ich mich wahrscheinlich regelmäßig an hervorragenden Aufsätzen erfreuen: perfekter Wissenschaftsjargon und dem wissenschaftlichen Konsens entsprechender, in Text gegossener Einheitsbrei.
Die Wahrheit ist jedoch, dass wissenschaftlicher Fortschritt nicht durch die bedingungslose Akzeptanz und blinde Reproduktion des wissenschaftlichen Konsenses entsteht. Wie viele andere Wissenschaftler betrachte ich es als Teil meiner Aufgabe, offen für Innovationen zu sein und im besten Fall den Fortschritt voranzutreiben. Um die nächste Generation von Wissenschaftlern entsprechend vorzubereiten, muss dies auch bedeuten, dass ich in der Lehre die relevanten Fähigkeiten zur Innovationsfähigkeit und zum kritischen Hinterfragen vermittle.
Für mich heißt das in erster Linie zu akzeptieren, dass KI-gestützte Lehre der neue Normalfall sein muss. Generative KI-Systeme gehören längst zum Handwerkszeug eines jeden Studierenden, ob es mir nun gefällt oder nicht. Für die Studierenden in meinem Studiengang bedeutet das, dass die Pflichtlektüre auch von einer KI zusammengefasst werden kann. Oder dass ein wissenschaftlicher Chat-Roboter für unsere Forschung konsultiert werden sollte, um neue Forschungsfragen zu generieren oder einfach um kleine methodische oder technische Fragen zu beantworten, die während der Diskussion im Seminar unbeantwortet geblieben sind. Die Integration von KI in unseren Lehrplan hat also Raum und Zeit geschaffen, damit ich meinen Studenten kritisches Hinterfragen, Medienkompetenz, Recherchefähigkeiten und die Nutzung von KI beibringen kann.
Prüfungsaufgaben, die sich nicht
von einer KI täuschen lassen
Was bedeutet das praktisch? Eine Herausforderung für mich als Lehrende bestand darin, den Leistungsfortschritt von Studierenden mit einer Aufgabe zu prüfen, bei der die Nutzung von KI nicht automatisch zur Lösung führt. Das bedeutete eine Prüfungsleistung zu stellen, die gezielt die Aspekte der menschlichen Intelligenz in meinen Studierenden prüft, die eine KI (bisher) nicht ersetzen kann. Das ist in der wissenschaftlichen Arbeit gar nicht so schwer, da die Evidenzlage oft ausreichend unklar ist, um auch weit verbreitete und vielzitierte Theorien und Studien kritisch zu hinterfragen.
Generative KI produziert Informationsausgabe auf Basis von Trainingsdaten in Form öffentlich zugänglicher Ressourcen. Das bedeutet, dass tendenziell eine mehrheitlich überwiegende Informationslage wiedergegeben wird. In Bezug auf die Wissenschaft bringt das ein wichtiges Problem mit sich, denn Kontroversen oder unklarer Forschungsstand werden möglicherweise im Output einer KI fehlerhaft wiedergegeben. Zum Beispiel dann, wenn neue Forschungsergebnisse einen bis dato etablierten Wissenschaftsansatz in Frage stellen, herrscht für eine gewisse Zeit ein Ungleichgewicht in Publikationszahl und Zitationen. Somit kann generative KI unter Umständen diese bereits in den Trainingsdaten vorhandene Verzerrung reproduzieren. An diesen Unsicherheiten müssen innovative Lehrformen und Prüfungsleistungen ansetzen, denn genau dort sind weiter menschliche Fähigkeiten wie kritische Analyse, methodische Kompetenzen, Logik und experimentelle Kreativität im wissenschaftlichen Prozess sowie ein grundlegendes Verständnis des Publikationssystems gefordert.
Wenn Hochschulen die Rahmenbedingungen schaffen, dass genau diese Fähigkeiten in Kombination mit der Nutzung neuer KI-Systeme gelehrt werden, ist nicht nur die Vorbereitung unserer Studierenden auf die reale Arbeitswelt optimal, sondern es wird schneller möglich sein, die Antworten auf aktuelle wissenschaftliche Fragen zu finden. Zu diesen Rahmenbedingungen gehört, dass Studierenden und Lehrenden ein sicherer, kostenfreier und barrierefreier Zugang zu wissenschaftlicher KI-Software ermöglicht wird. Vor kurzem wurde hier im Blog sogar dafür plädiert, dass Hochschulen ihre eigenen KI Sprachmodelle entwickeln sollten. Eine unterstützenswerte Forderung, doch egal ob durch das Trainieren von hochschul-internen Modellen oder mehr Public-Private-Kollaborationen mit der in Deutschland ansässigen KI-Industrie: Der digitale Ausbau innovativer Bildungstechnologien muss so schnell wie möglich formal und praktisch in die Hochschullehre und Forschung eingebunden werden, fordert auch der Wissenschaftsrat.
Die Integration von KI in die Hochschullehre ist unausweichlich. Studierende nutzen sie bereits für ihre Arbeiten, es liegt an uns Lehrenden, ihnen den verantwortungsvollen Einsatz nahezubringen. Zugleich lädt uns die Nutzung generativer KI dazu ein, unsere Forschungs- und Lehrmethoden zu überdenken. Es ist an der Zeit, das volle Potenzial dieser Technologie für die Zukunft der Wissenschaft auszuschöpfen.
Kommentar schreiben
Leif Johannsen (Mittwoch, 28 Februar 2024 12:25)
'dieser Eintrag wurde von keiner KI verfasst' ;)
Die Kernfrage ist doch, welchen Nutzen soll KI letztlich im Hochschulsektor leisten? Wessen Leben soll durch den Einsatz erleichtert werden, das der Studierenden oder der Lehrenden? Eine KI als Tutor oder sparring partner, die mir z.B. das Loesen von Differenzialgleichungen beibringt ist doch super. Oder eine KI, die meine Vorlesung optimiert. Eine KI die mir das Loesen von Differenzialgleichungen soweit abnimmt, dass ich mich nicht mehr um das Wieso-Weshalb-Warum kuemmern muss, waere eine Katastrophe. Mit einem Auto als Hilfsmittel komme ich in derselben Zeit weiter als zu Fuss oder mit dem Rad (jedenfalls, wenn man nicht im Stau steht). Wenn ich jedoch ausschliesslich mit dem Auto unterwegs bin, leidet der Geldbeutel, die Gesundheit, die Umwelt. Insofern gibt es eine einfache Formel, um den Einsatz von KI zu bewerten: Leistungssteigerung des Menschen durch KI ist gut, deskilling des Menschen durch KI ist schlecht. Was die Einordnung der Leistungen von Studierenden (auch die Faehgikeit zum kritischen Denken) betrifft, denke ich, dass der Ansatz ganz alter Schule (z.B. Schreiben eines Essays/Studienprotokolls/Ethikantrages/etc ohne Hilfsmittel in begrenzter Zeit) angebracht waere. [Liebe Gruesse bei dieser Gelegenheit an David D]
Hanna (Mittwoch, 28 Februar 2024 16:14)
Die Autorin hat es auf den Punkt gebracht: KI ist bereits da oder wird noch verstärkt kommen. Es geht also beim Einsatz in der Lehre um die Frage des Wie. Auch der Rechtsrahmen dafür muss sich (weiter-)entwickeln.
Viele rechtliche Fragen sind noch nicht geklärt. Einige Praktiken sind aktuell verboten: Eine rechtlich geschützte PDF-Datei darf ich mir oft gar nicht von einer KI wie ChatGPT zusammenfassen lassen, u.a. weil diese die eingespeisten Daten als Trainingsdaten verwendet.
Als Dozent:in darf ich keine Aktivitäts- oder Prüfungsleistungen von Studierenden einer solchen KI zuführen.
Mich würde interessieren, welche KI an der Universität der Autorin eingesetzt wird, mit der die beschriebenen Praktiken rechtlich zulässig sind (Zusammenfassen von urheberrechtlich geschützten(?) Texten etc).
Auch wird bei generative KI der Grad zwischen Eigenleistung und Täuschungsversuch schmäler. Was ist noch eine Eigenleistung: die sprachliche Überarbeitung von Rechtschreibung und Stil, das Plotten eines Diagramms, das Ausformulieren eines Arguments mithilfe einer generativen KI?
Wenn künftig mit KI exponentiell mehr wissenschaftliche Texte verfasst werden, wer liest diese dann? Auch eine KI? Die wissenschaftlichen Praktiken sind hier einer großen Veränderung unterworfen. Es wird eine große Herausforderung, wichtige Prinzipien der Wissenschaftlichkeit nicht aufzugeben.
Niels Seidel (Mittwoch, 28 Februar 2024 19:26)
Ich stimme Ihnen zu, möchte aber drei Punkte ergänzen:
(1) ChatGPT ist nur _ein_ Produkt. Lassen Sie andere Generative Pretrained Transformer (GPTs) nicht außer Acht. Es gibt eine Reihe von Open Source Large Language Models (LLMs), die vergleichbar gut sind und immer besser werden. Hochschulen müssen, um ihre Unabhängigkeit zu bewahren, eine technologische Autonomie von Unternehmen und deren Produkten anstreben. Bestrebungen wie in den Niederlanden, eigene LLMs zu erstellen, sind deshalb zu begrüßen und zu fördern. Wenn allerdings die in Deutschland für KI-Zentren bereitgestellten Mittel (50 Mio/Jahr) geringer ausfallen wie die Mittel, die eine US-Uni wie Carnegie Mellon für KI einsetzen kann, wird das schwer.
(2) GPTs sind erst der Anfang. Wenn man davon ausgeht, dass wir uns immer weiter einer allgemeinen künstlichen Intelligenz (AGI Artifical General Intelligence) annähern, müssen sich Hochschulen die Frage stellen, wozu es Hochschulabschlüsse und Lehre überhaupt noch braucht. Jegliche intellektuelle Fähigkeiten, die man an einer Hochschule erlernen kann, könnte eine AGI besser. Die Qualifikationen im Hochschulbereich wären nicht mehr gefragt, weil die Wissensarbeit in Unternehmen etc. durch AGI erledigt wird.
(3) In der Informatik stehen wir vor der Aufgabe, Studierenden anhand von Datenstrukturen und Algorithmen das Programmieren beizubringen. Einfache und kleinere schwere Programmieraufgaben können GPTs sehr gut lösen, so dass Studierende den Lernprozess abkürzen und dadurch die Chance zum Üben vertun und damit auch den Kompetenzerwerb verspielen, bessere Algorithmen zu entwickeln und komplexere Anwendungen zu programmieren. Beim Programmieren genügt es im übrigen nicht, den Code (kritisch) lesen und verstehen zu können - man muss u.a. auch wissen, welche alternativen Gestaltungsmöglichkeiten existieren. Lesekompetenz erwirbt man also durch Schreiben.