ChatGPT hat die juristische Arbeitswelt im Sturm erobert. Immer mehr Anwältinnen und Anwälte nutzen das KI-Tool, um Schriftsätze zu entwerfen, Rechtsfragen zu recherchieren oder Mandantenkommunikation vorzubereiten. Die Versuchung ist groß: In Sekunden liefert ChatGPT scheinbar fundierte Antworten unter Angabe von Paragraphen, Urteilen und Literatur. Doch genau hier lauert eine Gefahr, die viele unterschätzen, denn ChatGPT erfindet juristische Quellen. Regelmäßig, überzeugend und ohne jeden Hinweis darauf, dass die genannten Normen, Entscheidungen oder Literaturfundstellen gar nicht existieren.

Was sind KI-Halluzinationen?

KI-Halluzinationen bezeichnen das Phänomen, dass große Sprachmodelle wie ChatGPT Informationen generieren, die sachlich falsch sind, aber sprachlich absolut plausibel klingen. Der Begriff stammt aus der KI-Forschung und beschreibt Ausgaben, die keiner realen Grundlage entsprechen – das Modell "halluziniert" Fakten.

Warum passiert das? ChatGPT ist kein Nachschlagewerk. Es ist ein statistisches Sprachmodell, das auf Basis von Wahrscheinlichkeiten den jeweils nächsten plausiblen Text generiert. Es versteht weder den Inhalt von Gesetzen noch kennt es den Bestand veröffentlichter Rechtsprechung. Wenn es eine Frage nach einem Urteil erhält, konstruiert es eine Antwort, die juristisch gut klingt und dem Muster juristischer Zitierweise entspricht – unabhängig davon, ob das Urteil existiert.

Besonders tückisch: Die Halluzinationen folgen korrekten Formatierungen. Ein erfundenes Aktenzeichen sieht genauso aus wie ein echtes. Ein nicht existierender Paragraph wird im richtigen Zitierstil genannt. Selbst erfahrene Juristinnen und Juristen können auf den ersten Blick nicht erkennen, ob eine ChatGPT-Quelle real ist. Studien zeigen, dass je nach Aufgabenstellung bis zu 30 – 70 % der von ChatGPT genannten juristischen Quellen frei erfunden sind.

Konkrete Fälle: Erfundene Urteile und falsche Zitate

Die Folgen von KI-Halluzinationen im juristischen Kontext sind keine theoretische Gefahr – sie sind bereits Realität. Allein in Deutschland sind inzwischen mehrere Gerichtsverfahren dokumentiert, in denen KI-generierte Falschinformationen aufgeflogen sind.

AG Köln, Beschl. v. 2.7.2025 – 312 F 130/25: Ein Rechtsanwalt reichte in einem familienrechtlichen Verfahren einen Schriftsatz ein, der auf KI-generierten Quellen basierte. Unter den Zitaten aus Kommentaren fanden sich beliebige und unzutreffende Kombinationen von Bearbeiter, Kommentar, Auflage und Jahr (etwa beim Münchener Kommentar zum BGB sowie beim  jurisPK-BGB) und es wurde eine nicht existierende Randnummer, ein herbeiphantasierter Zeitschriftenartikel und ein frei erfundenes Urteil des OLG Frankfurt zitiert. Das Gericht stellte einen Verstoß gegen § 43a Abs. 3 BRAO fest – die Pflicht zur gewissenhaften Berufsausübung.

LG Darmstadt, Beschl. v. 10.11.2025 – 19 O 527/16: In einem Zivilverfahren legte ein Sachverständiger ein Gutachten vor, das erkennbar mithilfe von KI erstellt worden war. Das Gericht identifizierte KI-typische Muster im Text und stellte fest, dass das Gutachten entgegen § 407a Abs. 1 ZPO nicht persönlich erstattet worden sei. Es wurde für insgesamt nicht verwertbar erklärt.

OLG Celle, Beschl. v. 29.4.2025 – 5 U 1/25: Bereits im Frühjahr 2025 befasste sich das OLG Celle mit einem Fall erfundener Rechtsprechung. Ein anwaltlicher Schriftsatz enthielt – KI-generierte – Zitate von Entscheidungen, die in keiner juristischen Datenbank auffindbar waren.

Weitere dokumentierte Fälle: Das Problem zieht sich durch alle Instanzen und Rechtsgebiete. Vor dem VGH Baden-Württemberg (Beschl. v. 8.7.2025 –3 S 1012/25), dem KG Berlin (Beschl. v. 25.8.2025 – 3 ORbs 164/25), dem LG Frankfurt a.M. (Beschl. v. 25.9.2025 – 2-13 S 56/24) und dem VG Köln (Beschl. v. 14.11.2025 – 4 L 3030/25) sind weitere Fälle aktenkundig – von erfundenen Schriftsätzen über falsche Zitate bis hin zu verfälschter Rechtsprechung. Betroffen sind nicht nur Anwälte, sondern auch Sachverständige und selbst vertretene Parteien.

Diese Fälle zeigen: KI-Halluzinationen sind kein Randproblem, sondern ein systematisches Risiko bei der Nutzung von ChatGPT für juristische Arbeit. Und sie sind längst in deutschen Gerichtssälen angekommen.

→ Alle dokumentierten Fälle finden Sie in unserer KI-Halluzinationsfälle-Datenbank

Warum juristische Halluzinationen besonders gefährlich sind

In anderen Bereichen sind KI-Fehler ärgerlich. In der Juristerei können sie existenzbedrohend sein, für Mandanten und Anwälte gleichermaßen.

Berufsrechtliche Konsequenzen: Anwältinnen und Anwälte unterliegen berufsrechtlichen Sorgfaltspflichten. Wer einen Schriftsatz mit erfundenen Entscheidungszitaten einreicht, verstößt gegen die in § 43a BRAO normierte Pflicht zur gewissenhaften Berufsausübung. Eine fehlerhafte Beratung auf Basis halluzinierter Quellen kann berufsrechtliche Verfahren bis hin zum Entzug der Zulassung nach sich ziehen.

Haftungsrisiken: Nach § 280 Abs. 1 BGB haftet der Rechtsanwalt gegenüber seinem Mandanten für Pflichtverletzungen aus dem Mandatsvertrag. Wer sich auf nicht geprüfte KI-Ausgaben verlässt und dadurch Fehler begeht, kann schadensersatzpflichtig werden. Die Berufshaftpflichtversicherung wird in solchen Fällen genau prüfen, ob die anwaltliche Sorgfalt eingehalten wurde.

Vertrauensverlust: Richter, Gegenanwälte und Mandanten verlieren das Vertrauen, wenn erfundene Quellen auffliegen. Ein solcher Vorfall kann den Ruf einer Kanzlei nachhaltig beschädigen. Im digitalen Zeitalter verbreiten sich solche Nachrichten schnell – wie der Fall US-amerikanische Fall “Mata v. Avianca” eindrucksvoll gezeigt hat.

Keine Entschuldigung durch KI-Nutzung: Gerichte haben bereits klargestellt, dass die Nutzung von KI die anwaltliche Prüfungspflicht nicht aufhebt. Der Anwalt bleibt für die Richtigkeit seiner Schriftsätze verantwortlich, unabhängig davon, welche Hilfsmittel er verwendet.

Wie man sich schützt: Prüfmethoden für KI-generierte juristische Inhalte

Die Nutzung von ChatGPT in der juristischen Arbeit ist nicht grundsätzlich falsch, aber sie erfordert konsequente Qualitätskontrolle. Folgende Methoden helfen:

1. Jede Quelle einzeln verifizieren: Keine von ChatGPT genannte Gerichtsentscheidung, kein Zitat eines Artikels oder Paragraphen und kein Literaturverweis darf ungeprüft übernommen werden. Jede Quelle muss in einer juristischen Datenbank nachgeschlagen werden.

2. Aktenzeichen systematisch prüfen: Stimmt das Format? Existiert der genannte Senat? Passt das Datum zum Aktenzeichen? Oft lassen sich Halluzinationen schon durch einfache Plausibilitätsprüfungen entlarven.

3. Gesetzesinhalte gegenlesen: Wenn ChatGPT eine Norm zitiert, sollte der tatsächliche Wortlaut in einer aktuellen Gesetzessammlung nachgelesen werden. ChatGPT gibt häufig den Inhalt von Normen falsch, verkürzt oder ein einer veralteten Version wieder.

4. KI als Startpunkt, nicht als Endpunkt nutzen: ChatGPT kann Denkanstöße liefern, Argumentationslinien vorschlagen oder bei der Strukturierung helfen. Aber die eigentliche juristische Recherche muss in Fachdatenbanken stattfinden.

Das Problem: Manuelle Prüfung kostet Zeit. Bei umfangreichen Texten mit dutzenden Verweisen ist eine vollständige Verifikation aufwendig. Genau hier setzt technische Unterstützung an.

lawlink CHECK: Automatische Verifikation juristischer Quellen

lawlink CHECK wurde speziell für dieses Problem entwickelt. Das Tool prüft automatisch, ob die in einem Text genannten juristischen Quellen tatsächlich existieren.

So funktioniert es: Sie fügen Ihren Text – egal ob von ChatGPT generiert, selbst geschrieben oder von einem Kollegen erhalten – in lawlink CHECK ein. Das Tool erkennt alle juristischen Zitate (Normen, Gerichtsentscheidungen, Literatur) und überprüft sie. Innerhalb von Sekunden erhalten Sie eine Übersicht: Welche Quellen existieren, welche können nicht gefunden werden und welche sind möglicherweise fehlerhaft zitiert?

Die Vorteile:

  • Sekundenschnelle Prüfung statt stundenlanger manueller Recherche
  • Erkennung von Halluzinationen bevor sie in Schriftsätze gelangen
  • Direkte Links zu den verifizierten Quellen in der Datenbank Ihrer Wahl
  • Einfache Integration in den bestehenden Workflow

lawlink CHECK ersetzt nicht die anwaltliche Sorgfalt und die eigene inhaltliche Überprüfung jedes einzelnen Zitate – aber es macht die Qualitätskontrolle von KI-generierten Texten erheblich effizienter und zuverlässiger.

→ Mehr erfahren: lawlink CHECK – Juristische Quellen automatisch prüfen

Nicht nur ChatGPT: Auch Claude und Gemini halluzinieren

Das Halluzinationsproblem ist nicht auf ChatGPT beschränkt. Auch andere KI-Modelle wie Anthropics Claude oder Googles Gemini erfinden juristische Quellen, teilweise seltener, aber nie zuverlässig genug für die anwaltliche Praxis. Wer glaubt, mit einem anderen Modell auf der sicheren Seite zu sein, irrt. Die grundlegende Architektur aller großen Sprachmodelle führt dazu, dass juristische Zitate halluziniert werden können. Eine systematische Prüfung bleibt bei jedem KI-Tool unverzichtbar.

Fazit: KI nutzen, aber richtig

ChatGPT ist ein mächtiges Werkzeug, aber kein zuverlässiger juristischer Recherche-Assistent. Wer KI-generierte Texte ohne Prüfung übernimmt, riskiert Berufsrechtsverletzungen, Haftungsansprüche und Reputationsschäden. Die Lösung liegt nicht im Verzicht auf KI, sondern in konsequenter Verifikation. Mit Tools wie lawlink CHECK lässt sich diese Prüfung effizient in den Arbeitsalltag integrieren.

Testen Sie lawlink CHECK jetzt kostenlos und schützen Sie sich vor KI-Halluzinationen.

lawlink CHECK kostenlos testen

Diesen Artikel teilen