Ein 74-jähriger Unternehmer setzte vor dem Obersten Gerichtshof von New York auf einen KI-Anwalt. Doch der Einsatz der Künstlichen Intelligenz flog auf und die Richterin stoppte das Verfahren.
Der 74-jährige Unternehmer Jerome Dewald, Gründer des Legal-Tech-Start-ups Pro Se Pro, versuchte, seine Berufung in einem Arbeitsrechtsstreit vor dem Obersten Gerichtshof von New York mit einem KI-generierten Avatar zu präsentieren. Der Versuch, mithilfe eines digitalen Avatars namens „Jim“ seine Argumente vorzutragen, wurde von den Richtern jedoch umgehend gestoppt. Der Vorfall wirft Fragen zur Nutzung von Künstlicher Intelligenz im Rechtswesen auf und beleuchtet die Grenzen der Technologie in formellen Kontexten.
KI-Anwalt argumentiert vor Gericht
Am 26. März 2025 trat Dewald vor das New Yorker Berufungsgericht, um in einem Arbeitsrechtsstreit gegen die Versicherungsgesellschaft MassMutual Metro zu plädieren. Obwohl er die Erlaubnis erhalten hatte, ein vorab aufgenommenes Video zu zeigen, informierte er das Gericht nicht darüber, dass der präsentierte Sprecher kein echter Anwalt war. Der digitale Avatar, erstellt mit der Software der San Franciscoer Firma Tavus, zeigte einen gut gekleideten, etwa 30 Jahre alten Mann, der Dewalds Argumente für den Fall vortrug.
Zunächst begrüßt der “Mann” das Gericht mit den Worten: „Wenn es dem Gericht genehm ist, trete ich heute in aller Bescheidenheit vor dem Gremium von fünf ehrenwerten Richterinnen und Richtern auf…“ Bereits nach wenigen Sekunden unterbrach Richterin Sallie Manzanet-Daniels die Vorführung irritiert und fragte: „Ist das der Anwalt in diesem Fall? Das ist nicht real.“ Dewald antwortete: „Den habe ich generiert. Das ist keine echte Person.“
Auf Nachfrage der Richterin gab Dewald zu, dass er den KI-Avatar selbst erstellt hatte. Die Richterin war erzürnt, dass er das Gericht nicht vorab darüber informiert hatte, dass es sich bei der Person um eine künstlich generierte Darstellung handele.
“Jim” sollte den Berufungskläger lediglich unterstützen
Dewald erklärte, er habe den Avatar aufgrund von Sprachschwierigkeiten, die auf eine frühere Krebserkrankung zurückzuführen seien, eingesetzt. Er wollte seine Argumente auf diese Weise klarer und überzeugender präsentieren. Der Berufungskläger räumte jedoch ein, dass er das Gericht nicht über die künstliche Natur des Avatars informiert hatte, was zu dem Missverständniss führte, dass es sich dabei um die Argumentation eines echten Anwalts handelte. Die Richterin zeigte sich enttäuscht über diese Vorgehensweise. Sie unterstellte dem Unternehmer, mit der Videopräsentation sein eigenes KI-Unternehmen “Pro Se Pro” bewerben zu wollen. Hierfür sei eine Gerichtsverhandlung aber die falsche Plattform.
Dieser Vorfall wirft grundlegende Fragen zur Nutzung von Künstlicher Intelligenz im Rechtswesen auf. Obwohl KI-Tools wie ChatGPT bereits für die Erstellung von juristischen Dokumenten verwendet werden, ist ihr Einsatz in Gerichtsverfahren umstritten. So kommt es immer wieder zu Halluzinationen und falsch zitierten Gerichtsentscheidungen (JURios berichtet). Ganz so “dumm” ist der Einsatz der KI im Ergebnis aber gar nicht – schließlich ergab eine Umfrage, dass Menschen eher dem Rechtsrat von ChatGPT vertrauen, als dem eines “echten” Anwalts (JURios berichtet).
Unternehmen verteidigt Einsatz von KI vor Gericht
„Wir glauben, dass die Reaktion der Richterin aus einem Moment der Überraschung heraus erfolgte, da sie überrumpelt wurde“, sagte ein Sprecher des KI-Unternehmens Tavus ggegenüber den Medien. „Wenn neue Technologien in risikobehaftete Bereiche wie den Gerichtssaal eingeführt werden, sind Überraschung und Skepsis ganz natürlich – auch wenn wir stets hoffen, dass ihnen zunächst mit einem Vertrauensvorschuss begegnet wird.“
Er fügte hinzu: „Wir setzen uns aktiv für Offenlegungsmechanismen ein, um in sensiblen Bereichen wie dem Rechtssystem klarere Grenzen zu schaffen. Unsere Echtzeit-Videoagenten geben beispielsweise immer an, dass sie KI sind, wenn man sie fragt, wer sie sind.”
Expert:innen warnen davor, dass der Einsatz von KI in Gerichtsverfahren ohne klare Richtlinien zu Missbrauch und Ungerechtigkeiten führen könnte. Insbesondere dann, wenn Bildmaterial oder Videos künstlich generiert und zu Beweiszwecken eingesetzt werden.
Ein Ausschnitt aus der kuriosen Gerichtsverhandlung kann hier angesehen werden: