KI und und das Chancen-Risiken Meme Link to heading
Die Veröffentlichung von ChatGPT ist nun bald drei Jahre her und so langsam erreicht KI — gemeint sind damit fast immer Large Language Models (LLM) — auch die Breite der juristischen Ausbildung. Ich habe mir vor zwei Jahren schon einmal in einem Essay über den Einsatz von LLMs in der juristischen Praxis Gedanken gemacht und bin mittlerweile so weit, dass ich auch etwas zur Rolle von LLMs in der Ausbildung schreiben möchte: konkret zur Zukunft von juristischen Haus- und Seminararbeiten, die als unbeaufsichtigte Prüfungsleistungen besonders von den generativen Fähigkeiten großer Sprachmodelle betroffen sind.
Ehrlich gesagt hatte ich in den letzten Jahren wenig Lust mich in den Diskurs über KI einzuschalten. Die schiere Menge an Halbwahrheiten, magischem Denken, verzweifelter Geldgier und quasi-religiösen Überzeugungen war mir absolut unangenehm und für konstruktive Gespräche tödlich. Wir kommen aber langsam an den Punkt, an dem LLMs in Bereiche Einzug halten, in die sie nicht hingehören, in Bereichen angekommen sind, wo man sie nicht wieder herausbekommt und selbst endloses Wagniskapital die Realität der geringen finanziellen, intellektuellen und gesellschaftlichen Rendite von LLMs nicht mehr überdecken kann.
Es ist unter Politiker:innen fast ein Meme zu behaupten, man wolle “die Chancen von KI zu nutzen, ohne die Risiken außer Acht zu lassen”. Wenn ich jedoch Konzepte und Berichte aus der Politik und juristischen Praxis lese, sehe ich vor allem viel Leichtgläubigkeit und Wunschdenken, aber nur wenig Risikobewusstsein. Ob ein Unternehmen die eine oder andere Abteilung gegen die Wand fährt nachdem alle kompetenten Mitarbeiter:innen durch KI ersetzt wurden, das ist die eine Sache. Sowas lässt sich oft genug mit viel Geld wieder flicken und im Zweifel geht auch nur Geld verloren. Wenn wir aber die Ausbildung von jungen Jurist:innen gegen die Wand fahren oder staatliche Strukturen vorschnell zerstören, dann können wir das vielleicht weder mit Geld noch mit jahrelangem Aufwand wieder reparieren.
Es ist mitnichten so, dass die juristische Ausbildung im Moment besonders toll und nachahmenswert wäre. Es gibt genug reale Baustellen, der Leidensdruck (insbesondere physisch und psychisch bei den Studierenden) ist hoch und der Veränderungswille bei vielen Beteiligten stark. Auch wenn das politische Kapital oft fehlt und am Ende nichts passiert.
Aber schlimmer geht immer.
Inhaltsverzeichnis Link to heading
Der Begriff “Künstliche Intelligenz” Link to heading
Gemeinhin wird begrifflich vor allem über “künstliche Intelligenz” (KI) und seine Folgen debattiert. Ich halte die Nutzung des Begriffs “KI” in konstruktiven Diskussionen für einen schweren Fehler. Tatsächlich weiß niemand so recht, was KI bedeuten soll. Wissenschaftler:innen nutzen ihn als Fernziel, Großkonzerne und Startups schaffen damit ein unrealistisches Heilsversprechen, Investor:innen träumen von billigen und willigen Arbeitskräften durch Technomagie und die meisten normalen Menschen verstehen darunter ein Synonym für “irgendwas Neues mit Computern”. Nicht wenige Teilnehmer:innnen des Legal Tech Diskurses gießen alten Wein in neue Schläuche und behaupten wahrheitswidrig ihre alte IT-Infrastruktur sei plötzlich “KI-getrieben”. Die wegen dieser Interessenkollisionen unvermeidbare Ungewissheit über den Begriff KI belastet den Diskurs, begünstigt Unehrlichkeit und schadet der Gesellschaft.
Ich spreche daher in diesem Essay konkret über Large Language Models (LLM), d.h. große Sprachmodelle aus dem Bereich der maschinellen Sprachverarbeitung. ChatGPT von OpenAI ist der bekannteste kommerzielle Dienst auf Basis von LLMs, Gemini (Google), Claude (Anthropic) und Llama (Meta) sind wichtige Konkurrenten. Die Unterscheidung zwischen einem Sprachmodell und dem darauf aufbauenden Dienst ist grundsätzlich wichtig, weil zusätzlich um ein Sprachmodell herum oft noch viele Sicherungen (z.B. vor traumatisierenden Inhalten), zusätzliche Fähigkeiten (z.b. die Ausführung von regulärem Computercode in virtuellen Maschinen), tendenziöse politische Systemanweisungen (z.B. “anti-wokeness”) und Infrastruktur angeboten werden. Ich werde hier aber vor allem von LLMs sprechen, weil sie den zentralen und problematischsten Bestandteil dieser Dienste bilden.
LLMs sind neuronale Netzwerke, die mit gigantischen Mengen Text trainiert werden, dabei lernen, das jeweils nächste Wort in vielen, vielen Kontexten vorherzusagen und daraus eine Art Durchschnitt bilden. Auf Basis dieses einfachen Prinzips lassen sich ab einer bestimmten Größenordnung erstaunliche und unerwartete technische Anwendungen realisieren, beispielsweise die Generierung von Menschenhand kaum zu unterscheidender Texte, die computerisierte Führung menschenähnlicher Gespräche und weitgehend selbständig handelnde Computer-Programme (Agenten). Ein großes praktisches Problem bleibt die nicht restlos zu behebende Fehlerhaftigkeit von weiten Teilen des Outputs, landläufig mit dem putzigen Begriff “Halluzinationen” umschrieben. Gesellschaftliche Probleme sind die gewaltigen Umweltfolgen durch den notwendigen Bau und Betrieb der Infrastruktur, die gesundheitlichen Folgen für Mitarbeiter:innen (z.b. durch Prüfung der Modelle auf traumatisierende Inhalte), sowie die wirtschaftlichen Folgen für Urheber:innen, deren Werke massenhaft ohne Einverständnis und Vergütung zu einem günstigen Konkurrenzprodukt transformiert werden.
Opportunitätskosten Link to heading
Ein Prinzip, das in den vielen Diskussionen um LLMs zu kurz kommt und auf welches ich hier ein besonderes Augenmerk legen möchte sind Opportunitätskosten. Opportunitätskosten entstehen immer dann, wenn mehrere Möglichkeiten zur Auswahl stehen und nicht alle Gelegenheiten genutzt werden können. Die ungenutzten Gelegenheiten verstreichen dann als Opportunitätskosten.
Beispielsweise:
- Wenn ich zwei Stunden ChatGPT prompte, kann ich in diesen zwei Stunden keine Fachliteratur lesen und zu meinem Problem recherchieren.
- Wenn ich einen Tag lang einen Kurs im LLM-Prompting belege, kann ich an diesem Tag nicht einen Programmierkurs absolvieren.
- Wenn ich mich als Dozent:in oder Forscher:in auf das Thema “KI und Jura” spezialisiere, hätte ich mit der verwendeten Zeit auch rigorose sozialwissenschaftlichen Methoden für die Anwendung auf rechtswissenschaftliche Probleme erlernen oder vertiefen können.
Lebenszeit ist wertvoll und knapp. KI mag gerade ein heißes Thema sein, aber vorher war das mit Blockchain und Metaverse genauso. Von einigen kleineren Proof-of-Concept Anwendungen mal abgesehen sind beide Themen aber wieder in der Versenkung verschwunden — da wo sie hingehören.
Wer aktuell exzessiv Zeit in die brandneuesten LLM-Entwicklungen steckt riskiert erhebliche Investitionen an Zeit, Geld und Vertrauen zu verlieren, wenn die Blase platzt.1
Juristische Hausarbeiten und Seminararbeiten Link to heading
Rechtswissenschaftliche Haus- und Seminararbeiten im klassischen Sinne sind nur noch tragische Idealformen in diesem neuen Zeitalter großer Sprachmodelle. Es ist aber wichtig zu verstehen, welche Zwecke sie verfolgen.
Angehenden Jurist:innen mit dem Ausbildungsziel Erste Juristische Prüfung (EJP)2 werden an deutschen Universitäten neben endlosen Präsenzklausuren derzeit vor alle zwei Formen unbeaufsichtigter Prüfungsarbeiten angeboten:
- Hausarbeiten, in denen ein komplizierter juristischer Fall im strengen Gutachtenstil zu lösen ist
- Seminararbeiten, bei denen ein rechtswissenschaftliches Thema in freiem narrativen Stil zu diskutieren ist, ähnlich einem langen Essay
An der LMU München schreibt man im Studium beispielsweise sechs Hausarbeiten: jeweils eine Hausarbeit im Zivilrecht, Öffentlichen Recht und Strafrecht für Anfänger und jeweils eine in den gleichen drei Gebieten für Fortgeschrittene. Seminararbeiten werden nur zwei geschrieben: eine in den ersten Semestern für den Grundlagenschein und eine Schwerpunktseminararbeit in den höheren Semestern, die Teil der Abschlussnote der EJP wird.3 Die Note von Hausarbeiten und der Grundlagenseminararbeit hat für die EJP keine Bedeutung. Zu meiner Zeit waren sie reine Pflichtübungen, könnten aber in neuerer Zeit wichtig für den integrierten Bachelor werden, wenn er denn angeboten (nicht in Bayern) und in der Berufspraxis angenommen wird.
Haus- und Seminararbeiten haben folgende Funktionen:
- [Prüfungsfunktion] Prüfungsleistung zur Leistungskontrolle (Bestehen erforderlich um das Studium fortzusetzen; Note ggf. für Bachelor, EJP und Stipendien von Bedeutung)
- [Praxisfunktion] Übung juristischer Falllösungstechnik unter halbwegs realen Bedingungen (d.h. Zugang zu Computer, Internet, Kommentaren, juristischen Datenbanken)
- [Wissenschaftsfunktion] Heranführung an das wissenschaftliche Arbeiten (Schreiben von komplexen Texten, Umgang mit Primär- und Sekundärquellen, wissenschaftliche Redlichkeit)
Dem Ideal zufolge schreiben Studierende ihre Haus- und Seminararbeiten alleine und in der Qualität entsprechend ihrer Fähigkeiten und ihres Lernfortschritts (Prüfungsfunktion), üben dabei die wichtige Falllösungstechnik mit den in der Praxis üblichen digitalen juristischen Hilfsmitteln ein (Praxisfunktion) und lernen den redlichen Umgang mit wissenschaftlichen Quellen nach allen Regeln guter wissenschaftlicher Praxis (Wissenschaftsfunktion).
Die Konsequenzen von KI für Haus- und Seminararbeiten Link to heading
Der Nutzen von Haus- und Seminararbeiten für diese drei Zwecke war auch schon vor dem Zeitalter von LLMs umstritten. Wegen der herausragenden Bedeutung des Staatsteils der EJP — der heutzutage nur aus Präsenzklausuren besteht — sind Haus- und Seminararbeiten in den Augen vieler Studierender reine Pflichtübungen für das Fortkommen. “Vier gewinnt” ist eine klassische Devise.4 Der strenge gutachterliche Formalismus aus Richterperspektive in der Falllösung ist im Studium für das Verständnis hilfreich, wird aber in der Praxis unter Realbedingungen nur selten verlangt, insbesondere nicht in der anwaltlichen Beratung. Und vor dem Hintergrund der radikalen Fokussierung auf die Lösung von Fällen und der weitverbreiteten Vernachlässigung jeglicher nicht-dogmatischer Methodenlehre mag der Nutzen der juristischen Ausbildung für die Wissenschaft ebenfalls zweifelhaft sein.
All diese Aspekte der Kritik an traditionellen Haus- und Seminararbeiten verdienen ihren eigenen Essay. Hier soll es aber erstmal speziell um die Konsequenzen von LLMs gehen.
Früher war es einigermaßen schwer und kostenintensiv eine halbwegs abgabefähige Arbeit durch unlautere Mittel (z.b. Ghostwriting) zu erstellen. Copy-and-Paste-Plagiate ließen sich durch technische Methoden schnell und nachvollziehbar aufdecken. Allein der Aufwand der Unlauterkeit zwang viele Studierende in die wissenschaftliche Redlichkeit. Dieser Aufwand ist vielleicht schon entfallen.
Für englischsprachige Arbeiten ist es jetzt schon möglich sich eine bestehensfähige Studienarbeit durch ein LLM generieren zu lassen (ggf. mit etwas Aufwand beim Prompting). Bei deutschen juristischen Arbeiten sind die Werkzeuge wohl noch nicht ganz so weit, um vollautomatisiert Haus- und Seminararbeiten zu erstellen. Es handelt sich aber eher um eine Frage der Zeit, denke ich.
Es stellt sich also irgendwann die Frage: wenn LLMs teilweise oder vollständig konkurrenzfähige Haus- und Seminararbeiten automatisch generieren können, wie reagieren wir auf diese Entwicklung? Es scheint drei Möglichkeiten zu geben:
- LLMs verbieten
- Haus- und Seminararbeiten abschaffen
- LLMs erlauben und in den Prozess integrieren
Verbot? Link to heading
Ein Verbot von LLMs in Haus- und Seminararbeiten effektiv durchzusetzen ist nach derzeitigem Kenntnisstand unmöglich. Von inkompetenten LLM-Nutzungen einmal abgesehen (z.B. ungeprüfte Beibehaltung von Passagen wie “ich bin ein großes Sprachmodell und kann nur…”) lässt sich LLM-generierter Text von menschlich generiertem Text auf einer syntaktischen Ebene kaum unterscheiden. Es gibt wenige Ausnahmen wie die Überbenutzung bestimmter Wörter, z.B. “delve” (Kobak et al. 2024).
Es gibt zwar Forschungsvorhaben zu “Wasserzeichen” in LLM-generierter Texten, indem bestimmte Worte und Wortfolgen mit erhöhter Wahrscheinlichkeit durch das Modell aktiv eingefügt werden. Solche Wasserzeichen sind aber instabil und lassen sich mit minimalem Aufwand wieder entfernen oder verfälschen. Bei stark formelhaften Texten wie sie in der juristischen Ausbildung und Praxis üblich sind, ist der Nutzen ohnehin zweifelhaft, weil zu wenig Signal in den Texten versteckt werden kann. Außerdem lässt sich durch solche statistische Analysen zwischen der Nutzung von LLMs a) zur Generierung von Inhalten und b) der Nutzung zur stilistischen Verbesserung von Texten (die hin und wieder als erlaubte Nutzung ihren Weg in Prüfungsordnungen findet) nicht unterscheiden.
Es werden auch immer wieder ““KI-Detektoren” angeboten, die KI-generierte Texte angeblich erkennen können, indem die passive Tendenz von Sprachmodellen zur auffälligen Nutzung bestimmter Wörter, Wortfolgen und andere ungewöhnliche statistische Muster untersucht werden. Die Probleme sind demnach ähnlich wie bei LLM-Wasserzeichen. Die Qualität von KI-Detektoren ist bis heute miserabel und die Erklärbarkeit ebenso, weil dahinter komplizierte neuronale Netzwerke ohne für Menschen verständliche Regelwerke stehen. Falsch-positive Treffer richten im Leben von Studierenden mehr Schaden an, als es ein paar echt-positive Treffer für die Prüfungsgerechtigkeit je wieder reinholen könnten. Berühmt-berüchtigt sind die Experimente, bei denen z.B. die amerikanische Verfassung von KI-Detektoren als weitgehend KI-generiert eingestuft wurde, allein weil sie in den Trainingsdaten fast aller LLMs enthalten sind (Edwards 2023).
Bei einer intensiven fachlichen Prüfung lassen bestimmte inhaltliche Fehler (häufige Zitate nicht-existierender Literatur/Rechtsprechung, gänzlich unpassende Argumente) unter Umständen vielleicht auf eine KI-Nutzung statt Leistungsschwäche schließen, aber die Kosten für die detaillierte händische Prüfung wären enorm. Bei den allgemein knappen Uni-Budgets ist so ein Prüfungsaufwand einfach nicht umsetzbar.
Eine Beaufsichtigung von Haus- und Seminararbeiten als ultima ratio — um die Benutzung unerlaubter Hilfsmitttel auszuschließen — wäre weder mit der Idee selbständiger wissenschaftlicher Arbeit noch mit den Budgets normaler Universitäten vereinbar.
Abschaffung von Prüfungsformaten? Link to heading
Die radikalste Antwort wäre sicher die Abschaffung ganzer Prüfungsformate, konkret die Abschaffung von Hausarbeiten und/oder Seminararbeiten. Falls sich bestehensfähige und vielleicht sogar hochwertige juristische Haus- und Seminararbeiten auf Knopfdruck generieren lassen, welchen Wert haben sie dann noch für die Ausbildung junger Jurist:innen?
Sie taugen dann nicht mehr als Prüfungsleistung, weil keine individuelle Leistung mehr erbracht werden muss (ob Prompt Engineering genug ist bzw. überhaupt eine Zukunft hat ist eine offene Frage). Sie taugen nicht zur Übung, weil die wesentliche Falllösungstechnik nicht mehr selbst geübt, sondern übersprungen wird. Sie taugen nicht mehr zur Heranführung an das wissenschaftliche Arbeiten, weil Tugenden wie intellektuelle Redlichkeit und die Arbeit mit wissenschaftlicher Literatur bei einer vollautomatisch plagiierten LLM-Collage aus wild zusammengewürfelten Literaturbestandteilen keine Bedeutung mehr hat.
Nun wird bestimmt jemand einwenden, die allermeisten Studierenden seien doch ehrliche Menschen und bei einem KI-Verbot in der Prüfungsordnung würden sie sich redlich und geflissentlich daran halten. Aber selbst unter der Annahme guten Willens: der Konkurrenzkampf in der juristischen Ausbildung ist hart und jeder Vorteil wird genutzt werden. Kommerzielle Repetitorien sind nicht umsonst bis heute erfolgreich und verdienen gut an der Angst der Studierenden, trotz horrender Preise, die vor allem wohlhabende Studierende privilegieren.
Wenn ein LLM eine durchschnittliche Arbeit schnell und ohne prüfungsrechtliche Konsequenzen generieren kann, wäre es für mindestens 50 % aller Studierenden eine rationale Entscheidung genau das zu tun. Die Angst hinter den anderen zurückzufallen wird ihnen schnell die notwendige Motivation liefern. Wenn generierte Arbeiten besser als der menschliche Durchschnitt sind, dann verschiebt sich der Anteil entsprechend nach oben. Nur für die besten Studierenden gäbe es dann noch einen Anreiz die Arbeit selbst zu schreiben. Natürlich wäre bei einer solch seismischen Verschiebung in der Qualität der Einreichungen auch der Mehrwehrt besonders starker Arbeiten nicht mehr sicher.
Es ist auch nicht notwendig, dass alle Studierenden dem Sirenengesang der LLMs erliegen. Es müssen nur genug sein, um den Wert der Prüfungsleistung in den Augen von HR-Abteilungen und Stipendiengeber:innen, den Wert der Übungsleistung in den Augen von Lehrpersonen und Studierenden und die wissenschaftliche Redlichkeit in den Augen der Öffentlichkeit in Frage zu stellen.
Werden wir den Mut haben, Haus- und Seminararbeiten abzuschaffen, wenn sie keinen Wert mehr haben? Oder sollten wir nur das klassische Ideal abschaffen, grundsätzlich an den tradierten Formaten festhalten und sie digital transformiert in das neue Zeitalter führen?
LLMs als zugelassenes Hilfsmittel? Link to heading
LLMs in der juristischen Lehre Link to heading
Wegen der Aussichtslosigkeit eines Verbots, dem Wunsch althergebrachte Prüfungsformate beizubehalten und dem Interesse daran Modernität zu demonstrieren schlagen mittlerweile nicht wenige juristische Fakultäten und Rechtswissenschaftler:innen vor, LLMs grundsätzlich als Hilfsmittel zuzulassen. An manchen Fakultäten wird dieses Prinzip bereits in der Praxis erprobt. Hier nur eine kleine Auswahl aus Bayern, ohne Anspruch auf Vollständigkeit:
- Heckmann und Rachut haben sich bereits 2024 für eine Zulassung von “KI” in “unbeaufsichtigten schriftlichen Arbeiten” ausgesprochen, der Aussichtslosigkeit eines Verbots und den Anforderungen des juristischen Arbeitsmarktes wegen (Heckmann and Rachut 2024, 93). Sie schlagen dabei den Einsatz von LLMs als Lernhilfe, in der Recherche, der sprachlichen Überarbeitung von Texten, auf Ebene der Inspiration und selbst als “Co-Erstellerin einer Prüfungsleistung” vor (Heckmann and Rachut 2024, 93–94).
- An der LMU München wurden in zwei Grundlagenseminaren 2024 und 2025 unter der Anleitung von Mayrhofer und Dötterl juristische Seminararbeiten verpflichtend mit “KI”erstellt und die Studierenden mussten die Nutzung detailliert dokumentieren und bewerten, insbesondere im mündlichen Vortrag (Dötterl 2025, 159–60).5
- Die Universität Regensburg hat im Jahr 2025 “KI” zum “grundsätzlich erlaubten Hilfsmittel” erhoben und KI-Richtlinien (Fassung vom 07.05.2025) aufgestellt, für welche Zwecke der Einsatz zulässig ist (Paraphrase, Visualisierung, Optimierung von Formulierungen, struktureller Input) und welche Pflichten die Studierenden dabei treffen (formulaische Offenlegung im Anhang).
Ich nenne vor allem diese Modelle, weil sie drei paradigmatische Herangehensweisen für den Umgang mit LLMs in der juristischen Ausbildung darstellen:
- Erlaubtes Hilfsmittel für begrenzte Zwecke mit formulaischer Offenlegung (Universität Regensburg)
- Verpflichtendes Hilfsmittel für alle Zwecke mit detaillierter, individueller Dokumentation (Mayrhofer/Dötterl)
- Erlaubtes Hilfsmittel für alle Zwecke ohne Dokumentation oder Rechtfertigung (Heckmann/Rachut)
Die Paradigmen bewegen sich vor allem in drei Dimensionen: der grundsätzlichen Erlaubnis (oder gar Pflicht) LLMs zu nutzen, einer etwaigen Zweckbindung und einem Dokumentations- und Rechtfertigungserfordernis.
Grundsätzliche Erlaubnis zur Nutzung von LLMs Link to heading
Im Szenario eines undurchsetzbaren Verbots und der Beibehaltung tradierter Prüfungsleistungen bleibt Universitäten kaum eine andere Wahl als die Nutzung von LLMs explizit zu erlauben oder stillschweigend zu dulden. Rechtsstaatlich betrachtet ist eine explizite Erlaubnis und gezielte Regulierung — wie von der Universität Regensburg vorgenommen — eindeutig vorzugswürdig gegenüber einer stillschweigenden Duldung, die nur Rechtsunsicherheit verursacht und sonst keinen Mehrwert bringt.
Eine verpflichtende Nutzung — wie im Grundlagenseminar von Mayrhofer/Dötterl — ist eine charmante Idee, eignet sich aber nur für bestimmte Lehr- und Prüfungsformate, die eng mit dem kritischen Gebrauch von LLMs verbunden sind. Unter realen Bedingungen haben Jurist:innen die freie Wahl der Mittel, um ihr Ziel zu erreichen. Man sollte diese Freiheit auch in einem Zeitalter der Narrative des angeblich unvermeidbaren LLM-Einsatzes erhalten. Auch wenn LLMs gute Studienarbeiten auf ausgetretenen Wissenspfaden erstellen können, werden sie nicht für jedes unbekannte Realproblem außerhalb des Trainingskorpus eine plausible oder gar konkurrenzfähige Lösung erstellen können. Und das wäre wenn es gut läuft — ich habe deutlich größere Zweifel an der Praxistauglichkeit von LLMs.
Zweckbindung von LLMs Link to heading
Ein weiterer populärer Gedanke in der aktuellen Diskussion ist die Zweckbindung von LLMs in der Anwendung. Beispielsweise wird die Nutzung als Sparring-Partner für den kreativen Prozess mit der erlaubten Diskussion unter Kommiliton:innen, die Nutzung als Recherche-Hilfe mit dem erlaubten Zugang zu juristischen Datenbanken und die Nutzung als Formulierungs- und Paraphrasierungshilfe mit der erlaubten Rechtschreibprüfung verglichen. Etwas kontroverser ist die Nutzung als Strukturierungshilfe, gibt es doch kein vergleichbares traditionelles Analog und wird die Strukturierung einer wissenschaftlichen Arbeit zurecht oft als wesentlicher Teil der Prüfungsleistung verstanden.
Im Regensburger Modell sind beispielsweise Paraphrase, Visualisierung, Formulierungshilfe und Strukturhilfe ausdrücklich erlaubt. Hingegen ist die Übernahme von ganzen KI-generierten Textpassagen wissenschaftlich weitgehend verpönt und konkret im Regensburger Modell verboten.
Persönlich hege ich Sympathien für den Zweckbindungsgedanken und finde manche Nutzungen tatsächlich weniger problematisch als andere, auch wenn ich alles außer Recherche und Sparring-Hilfe im Hinblick auf gute wissenschaftliche Praxis, drohenden Fähigkeitsverlust durch mangelnde Übung und LLM-verursachte Qualitätsprobleme entschieden ablehne.
Insbesondere die Erstellung von statistischen Visualisierungen durch LLMs sehe ich außerordentlich kritisch. Studierende der Rechtswissenschaften erhalten ohnehin schon praktisch keine Ausbildung in der Analyse von Daten. Die methodisch saubere Überprüfung einer KI-generierten Grafik ist für sie in der Regel nicht möglich. Wir sollten auf gar keinen Fall suggerieren, dass sie auf dem Umweg über LLMs dieses Fähigkeitsdefizit ohne eigenständige methodische Anstrengungen überwinden können.
Auf regulatorischer Ebene ist der Zweckbindungsgedanke allerdings ebenso verfehlt wie ein komplettes Verbot. Es wird sich im finalen eingereichten Text zwischen den erlaubten und verbotenen Nutzungen — außer in krassen Fällen — kein erkennbarer Unterschied finden, der eine Differenzierung in der Bewertung erlaubt. Wenn die Durchsetzung praktisch unmöglich ist, ist auch die Regel sinnfrei. Das Regensburger Modell ist in dem Sinne gut gemeint, aber schlecht ausgeführt.
Dokumentation und Rechtfertigung Link to heading
Einen weiteren Gedanken teilen sich alle drei Modelle: wenn der Einsatz von LLMs unvermeidbar ist, dann sollen die Studierenden ihn wenigstens offenlegen und reflektieren. Im Regensburger Modell ist hier eine formulaische Offenlegungspflicht im Anhang vorgesehen, beispielsweise die Angabe von “Einsatz von ChatGPT, um wissenschaftliche Literatur umzuformulieren”. Mayrhofer/Dötterl gehen einen Schritt weiter und verlangten von ihren Studierenden eine umfassende und individuelle Auseinandersetzung mit dem Einsatz von LLMs in der konkreten Arbeit (Dötterl 2025, 160). Heckmann/Rachut regen auch eine individuelle Dokumentation des Arbeitsgangs an (Heckmann and Rachut 2024, 97).
Ganz ehrlich: ich habe keine Ahnung was die formulaische Offenlegung im Regensburger Modell bringen soll. Weder wird hier die Nutzung reflektiert, noch bringt die Offenlegung der Korrektor:in oder der Fakultät einen Erkenntnisgewinn. Man hätte sich in diesem Fall die bürokratische Offenlegungspflicht einfach komplett sparen und die Nutzung für die konkreten Zwecke direkt erlauben können. Dazu kommt, dass eine Zweckbindung als solche praktisch wenig sinnvoll ist (siehe oben).
Die individuelle Begründung (Mayrhofer/Dötterl und Heckmann/Rachut) klingt schon eher sinnvoll. Aber auch wieder ganz ehrlich gesprochen: die Begründung lässt sich genausogut mit einem LLM generieren wie die Arbeit selbst. Das Ganze dann noch durch ebenjenes LLM in Stichpunkte verpackt, ein paar Folien für die Präsentation dazu generiert und fertig ist die Prüfungsleistung ohne Aufwand. Nur für den Vortrag muss man selbst aufstehen und vorlesen. Das Angebot ist in der heutigen Zeit dennoch sinnvoll, falls die Studierenden entsprechend mitarbeiten und reflektionsgewillt sind.
Bei der Dokumentation des Einsatzes von LLM sehe ich viel guten Willen unter den Lehrenden, aber ich bin von den Lösungen nicht überzeugt. Der Informationsgehalt einer Offenlegung ist gering und der Nutzen als eigenständige Prüfungsleistung ebenso. Man kann das in einem engmaschig persönlich betreuten Grundlagenseminar zu Übungszwecken gerne und erfolgreich durchführen, aber es hat kein Potenzial zur Verallgemeinerung im Massenbetrieb.
Wohin führt die Zukunft? Link to heading
Persönlich gefällt mit der Einzug von LLMs in Haus- und Seminararbeiten überhaupt nicht. Ich bin kein Freund traditioneller Jura-Klausuren und hätte im digitalen Zeitalter gerne mehr und tiefere wissenschaftliche Arbeiten flankiert von intensiver Methodenlehre gesehen, statt dem ewigen Eiertanz um Klausurtaktik. Zumindest hier ist aber der Geist aus der Flasche und bei Studienarbeiten (die vor allem bekanntes Standardwissen aufbereiten) werden LLMs bald eine ernsthafte Konkurrenz zur menschlichen Bearbeitung sein. Ein Verbot von LLMs in Haus- und Seminararbeiten ist schlicht nicht durchsetzbar, also bleiben nur Abschaffung oder Transformation als Optionen.
Die Abschaffung von Haus- und Seminararbeiten sollten wir als ernsthafte Option in Erwägung ziehen. Wie ich eingangs schon geschrieben habe, werden Opportunitätskosten viel zu oft unterschätzt. Wenn im LLM-Zeitalter die Prüfungsfunktion, die Praxisfunktion und die Wissenschaftsfunktion von häuslichen schriftlichen Arbeiten weitgehend verloren gehen, dann sollten wir ehrlich in den Spiegel schauen und diese Art von Arbeit aufgeben. Die Ressourcen der Studierenden und Lehrenden können wir sinnvoller einsetzen.
Vielleicht können digital geschriebene Klausuren mit Hilfsmitteln wie juristischen Datenbanken und digitalen annotierbaren Gesetzestexten zu einer realistischen Alternative werden. Ein Szenario in dem ein:e Anwält:in binnen weniger Stunden einen Schriftsatz erstellen muss sind durchaus praxisnah. Viel schöner fände ich aber die Besinnung auf die Methodenlehre und die Vermittlung von wissenschaftlichen Techniken, die sonst im Jurastudium zu kurz kommen. Beispielsweise Sachverhaltsermittlung, formale Logik, Prinzipien und Methoden empirischer Forschung oder Grundlagen der Datenanalyse und des Programmierens.
Wenn für eine Abschaffung der Wille nicht vorhanden ist, dann bleibt nur die Transformation von Haus- und Seminararbeiten in LLM-dominierte Arbeiten. Daraus folgt zwangsläufig deren schleichende Entwertung als Prüfungsleistung, der Verlust als Gelegenheit zur Übung juristischer Methodik und der zersetzende Einfluss auf die gute wissenschaftliche Praxis. Aus der Perspektive des juristischen Arbeitsmarktes spricht viel für eine Ausbildung mit und an LLMs. Wenn der Einsatz weitverbreitet ist, dann werden entsprechende Kompetenzen von jungen Jurist:innen in Zukunft erwartet werden. Aus didaktischer und wissenschaftsethischer Sicht spricht aber viel dagegen.
Wenn in Zukunft alle schriftlichen Arbeiten in wesentlichen Teilen LLM-generiert sind, dann findet keine Bewertung einer individuellen Leistung mehr statt, sondern eine Bewertung des LLMs hinter der Bearbeiter:in. Selbst das Prompt Engineering verliert immer mehr an Bedeutung, weil LLMs ihre Prompts zunehmend selbst optimieren. Welche Prüfungsleistung soll da noch bewertet werden?
Wenn schon keine traditionelle juristische Methodik mehr trainiert wird, dann vielleicht wenigstens der Einsatz von LLMs zur juristischen Falllösung? Aber je mehr das LLM selbst tut und je weniger der/die Bearbeiter:in, so nimmt der Übungswert im Gleichschritt mit dem Prüfungswert ab. Vielleicht wird Prompt Engineering und das Collagieren von Texten noch anspruchsvoll genug sein, um einen praktischen Mehrwert zu bieten, aber ich habe Zweifel daran. Allein über die inhaltliche Überarbeitung durch die Studierenden selbst und die strenge Bewertung der inhaltlichen Richtigkeit durch die Lehrenden lässt sich vielleicht noch etwas an Übungswert generieren.
Besonders tragisch sind aber die Folgen für die gute wissenschaftliche Praxis. Erst erzählen wir den Studierenden, sie sollen jeden Gedanken belegen, Zitate im Wortlaut exakt kennzeichnen und jeden Gedanken nachverfolgbar machen. Dann sagen wir ihnen, sie können gerne die Formulierungen aus der magischen Maschine übernehmen, deren Herkunft unklar ist, bekannterweise aber aus fremden Texten stammt und selbst bei Herkunftsangabe selten überprüfbar ist. Studierende bleiben zwar voll verantwortlich für die Inhalte und für etwaige Plagiate (siehe Regensburger Modell), aber dann soll es trotzdem in Ordnung sein aus einer automatischen Plagiatsmaschine die Formulierungen zu übernehmen und nicht oder nur vage im Anhang zu kennzeichnen? Das geht nicht zusammen.
Egal welches Szenario kommt, Abschaffung oder Transformation, Haus- und Seminararbeiten werden über Zeit an Bedeutung verlieren. Ich habe gemischte Gefühlte gegenüber diesen traditionellen Formaten, aber es wird dennoch eine Tragödie sein, weil ein letztes Standbein freier Arbeit im Jurastudium wegfällt. Vielleicht lässt es sich über volldigitale Klausuren mit elektronischen Hilfsmitteln wieder auffangen, aber das ist eine andere Baustelle.
Ich würde mir eine mutige Reform des Jurastudiums wünschen, statt es stückweise unter den gesellschaftlichen und technischen Wellen der Veränderung versinken zu sehen. Aber auf mutige Justizminister:innen mit passedem politischen Kapital warten wir schon lange.
Bibliographie Link to heading
Dötterl, Sebastian. 2025. “Der Elefant Im Raum – Generative Künstliche Intelligenz Und Die Zukunft Der Juristischen Ausbildung.” Ordnung Der Wissenschaft 3: 155. https://ordnungderwissenschaft.de/wp-content/uploads/2025/06/Doetterl.pdf.
Edwards, Benj. 2023. “Why Ai Writing Detectors Don’t Work: Can Ai Writing Detectors Be Trusted? We Dig into the Theory Behind Them.” Ars Technica. July 14, 2023. https://arstechnica.com/information-technology/2023/07/why-ai-detectors-think-the-us-constitution-was-written-by-ai/.
Heckmann, Dirk, and Sarah Rachut. 2024. “Rechtssichere Hochschulprüfungen Mit Und Trotz Generativer KI.” Ordnung Der Wissenschaft, no. 2: 85. https://ordnungderwissenschaft.de/wp-content/uploads/2024/03/Heckmann-Druckfahne.pdf.
Kobak, Dmitry, Rita González-Márquez, Emőke-Ágnes Horvát, and Jan Lause. 2024. “Delving into ChatGPT Usage in Academic Writing Through Excess Vocabulary.” arXiv Preprint arXiv:2406.07016. https://arxiv.org/abs/2406.07016?
Mayrhofer, Ann-Kristin. 2024. “Juristische Seminararbeiten Mit Und Über Künstliche Intelligenz.” Legal Tech – Zeitschrift Für Die Digitale Anwendung, 189–90.
-
Und jedesmal wenn ich einen Essay über LLMs schreibe, zweifle ich die ganze Zeit, ob ich die Zeit nicht sinnvoller mit anderen Dingen hätte verbringen können. ↩︎
-
Die Erste Juristische Prüfung (EJP) wird umgangssprachlich auch als “1. Staatsexamen” abgekürzt. Da nach § 5 Abs. 1 Hs. 2 des Deutschen Richtergesetzes die EJP aus einem staatlichen Teil und einem universitären Teil besteht, ist die Bezechnung “1. Staatsexamen” streng genommen nicht richtig. Da der Staatsteil aber mit dem größten Aufwand verbunden ist und in der Einstellungspraxis vieler juristischer Arbeitgeber am meisten zählt, ist die sprachliche Fixierung darauf verständlich. ↩︎
-
Seminarleistung und Klausur ergeben zusammen 30 % der Gesamtnote der EJP, siehe § 5d Abs. 2 S.4 Hs. 1 Deutsches Richtergesetz. ↩︎
-
Prüfungen im Jura-Studium werden anhand einer Skala von 0 bis 18 Punkten bewertet. Ab 4 Punkten gilt eine Prüfung als bestanden. ↩︎
-
Das Konzept der Lehrveranstaltung soll in Mayrhofer (2024) zu finden sein, aber die Zeitschrift ist nicht frei verfügbar und auch nicht für Forschende der LMU abrufbar, ich habe es daher nicht nachlesen können. ↩︎