1 ChatGPT in der juristischen Praxis: Risiken und Grenzen
Letztes Update Ø Lesezeit: ca 2 min.

ChatGPT ist des gegnerischen Anwalts Liebling

ChatGPT erstellt juristische Texte, die zunächst kompetent wirken, birgt aber Risiken durch plausible Unvollständigkeit. Erfahren Sie, wann der Einsatz sinnvoll ist und welche Fehler drohen. Praktische Beispiele aus dem Alltag zeigen die Grenzen des Modells. Ein Leitfaden für Verbraucher zur intelligenten Nutzung.

ChatGPT hat so seine Lücken.

Er ist der heimliche Liebling des Anwalts - und zwar des gegnerischen Anwalts! Nicht weil er so gut ist – sondern weil ChatGPT so selbstsicher falsch liegen kann (Stand: März 2026). Er stellt die richtigen Fragen, strukturiert sauber, klingt kompetent. Und genau das ist das Problem: Wer nicht weiß, was er nicht weiß, der bemerkt die Fehler nicht, die passieren können. Der User vertraut dem Ergebnis und sein Gegenanwalt freut sich.

Das Tückische ist nicht mehr wie früher die offensichtliche Halluzination (z.B. falsche Urteile). Es ist die plausible Unvollständigkeit. ChatGPT arbeitet die Oberfläche ab, findet die naheliegenden Argumente, formuliert sie überzeugend, aber bleibt dabei oft an der falschen Stelle stecken.

Beispiele aus der Praxis

Zwei Beispiele aus der Praxis zeigen, wie das konkret aussehen kann. In einem typischen Parship-Fall erkennt ChatGPT die unwirksame Verlängerungsklausel, bestreitet brav die Inkassoforderung – und übersieht dabei das eigentliche Ziel: wer auf Basis einer unwirksamen Klausel gezahlt hat, kann auch sein Geld zurückfordern, soweit noch nicht verjährt. Das wäre der Fall gewesen, ChatGPT hat die Möglichkeit nicht erkannt - 3/4 des Anspruchs wären verschenkt gewesen.

In einem Vertragsstreit dasselbe Muster, andere Richtung: Der Gegner nutzte ChatGPT und argumentiert gegen ein Widerrufsrecht mit allem, was das Modell so kennt. Was die KI dabei übersieht: Ohne Widerrufsbelehrung läuft die Frist gar nicht an. Die stärkste Karte des Mandanten hat ChatGPT dem Gegner einfach vorenthalten, so dass er die falschen Schlüsse zog.

Die Gefahr

Bild: KI, Prompt: Thomas Meier‑Bading

Die Quintessenz ist simpel: ChatGPT kann recherchieren, strukturieren, formulieren. Was er nicht kann, ist urteilen – also entscheiden, wo in einem konkreten Fall der Hebel wirklich sitzt. Genau das ist Anwaltsarbeit. Wenn man das an ein Sprachmodell delegiert, bekommt man ein Schreiben, das gut aussieht und über das man sich erstmal freut. Viel mehr aber freut sich womöglich der gegnerische Anwalt, sobald er es liest.

Vor allem: man schadet sich ja gerade deswegen, weil man ChatGPT vertraut. Bei einer vernünftigen Beratung würde man Chancen nutzen, die man hat (und die die KI nicht erkannt hat) oder man würde anders herum einen Fehler einsehen und seinen Gegner runterhandeln. Wenn man sich aber fehlerhaft in Sicherheit wiegt, dann kommen noch Kosten hinzu - verloren hat man doch sowieso. 

Wann verwenden?

Für sehr einfache juristische Aufgaben ist ChatGPT besser als ein Laie: Verträge beenden, einfache kurze Vorlagen, ehe man gar nichts in der Hand hat. Keineswegs benutzen sollten Sie ChatGPT aber, wenn der andere juristisches Vorwissen hat, einfach weil das Risiko zu hoch ist:

  • Rechtsanwälte
  • Staatsanwälte/Polizei
  • andere Behörden
  • Firmen mit Rechtsabteilung
  • Inkassobüros

Da ist die Jura-Studentin aus der WG im 3.Stock die bessere Ansprechparnterin als eine KI, wenn man schon keinen Anwalt bezahlen will. So weit jedenfalls der Stand im März 2026. Wahrscheinlich wird KI in Zukunft immer besser, wahrscheinlch nutzen wir irgendwann auch andere Modelle. Dann mag das anders aussehen.

Kontakt:

Sie erreichen mich zu den üblichen Bürozeiten per Telefon: 030/34060478, Whatsapp (Text): +4916091067827 oder E-Mail: anwalt@meier-bading.de RA Meier-Bading ist seit über 20 Jahren als Anwalt tätig
mit 267 google-Rezensionen
Bewertung: 5,0 ⭐⭐⭐⭐⭐