Zwei New-Yorker Anwälten – Peter Loduca und Steven Schwartz – der Kanzlei Levidow, Levidow & Oberman, droht aktuell die Einleitung eines Disziplinarverfahrens wegen der Einsetzung des KI-Tools ChatGPT. Was war passiert?

ChatGPT als KI-Tool

ChatGPT ist ein Modell künstlicher Intelligenz des Unternehmens Open AI, welches auf sog. Prompts (Anfragen) Texte erstellt. Das Unternehmen weißt dabei darauf hin, dass die erstellen Texte „ungenaue Informationen“ beinhalten können. Erfahrungsgemäß kommt es dabei regelmäßig dazu, dass ChatGPT (juristisch) falsche Inhalte und / oder Quellen aufführt und solche schlicht erfindet.

Diese Gefahr wurde durch die Kollegen Loduca und Schwartz offenbar ignoriert, indem das sie bei Gericht einen Schriftsatz einreichten, welcher Verweise und Zitate auf zahlreiche vergangene Gerichtsentscheidungen enthielt. Damit wollte das Anwaltsteam die Erfolgsaussichten des eigenen Mandanten untermauern. Den Anwälten der gegnerischen Fluggesellschaft fiel auf, dass zahlreiche der angeführten vermeintlichen Präzedenzfälle überhaupt nicht auffindbar waren und wies im laufenden Gerichtsverfahren darauf hin.

Laut dem zuständigen Richter ein „noch nie dagewesener Umstand“

Der im Verfahren zuständige Richter Castel stellte daraufhin fest, dass insgesamt 6 zitierte Fälle vollkommen erfunden waren. Dabei hatte das KI-Tool nicht nur die Gerichtsentscheidungen an sich frei erfunden, sondern auch dazugehörige Inhalte, Zitate und interne Verweise. Richter Castel bezeichnete diesen Vorfall als „noch nie dagewesenen Umstand“, da nach seiner Kenntnis in einem Schriftsatz noch nie auf juristische Beispielfälle verwiesen wurde, die sich als nicht existent herausstellten.

Kollege Loduca wies darauf hin, dass allein sein Kollege Schwartz mit der Recherche beauftragt worden war. Letzterer gab an, ChatGPT tatsächlich zur Recherche ähnlicher Fälle genutzt zu haben und bestätigte, dass Kollege Loduca von seiner Nutzung des KI-Tools im konkreten Fall nichts gewusst habe. Zu seiner Verteidigung gab Kollege Schwartz an nicht gewusst zu haben, das ChatGPT auch fehlerhafte Ergebnisse liefern könne und versicherte, zukünftig keine KI mehr zur juristischen Recherche zu verwenden, ohne vor Einreichung deren Authentizität geprüft zu haben.

Beide Anwälte erhalten Gelegenheit sich bei einer Anhörung am kommenden 8. Juni zu ihrem Vorgehen zu äußern und zu erläutern, warum sie keine disziplinarischen Maßnahmen verdienen.

Wir gehen davon aus, dass dieser Fall in der juristischen Gemeinschaft eine Debatte über den möglichen Einsatz von KI-Tools in der juristischen Recherche und Fallbearbeitung auslösen wird. Dabei wird es auch und die Frage der Notwendigkeit umfassender Richtlinien zur Vermeidung von Präzedenzfällen gehen müssen.

Sollten Sie im Hinblick auf die vorstehenden Ausführungen Fragen haben oder in Erfahrung bringen wollen, wie Sie KI-Tools wie ChatGPT im Hinblick auf das Urheber- und Datenschutzrecht einsetzen können, melden Sie sich gerne bei unserer Mitarbeiterin Frau Bur per E-Mail unter bur@dhk-law.com oder unter der Telefonnummer 0241 – 946 21 128.

Über die Autoren

  • Sina Bader

    Sina Bader ist zugelassene Rechtsanwältin seit 2018. Seit 2022 ist sie außerdem Fachanwältin für IT-Recht. Zum Anwaltsprofil

  • Joachim Nellissen

    Joachim Nellissen ist zugelassener Rechtsanwalt seit 1996. Seine Fachgebiete sind Gesellschaftsrecht, Wettbewerbs- und Markenrecht, Urheberrecht, Handels- und Vertriebsrecht. Zum Anwaltsprofil