Künstliche Intelligenz (KI) hilft Jurist_innen schon jetzt in ihrem Alltag, doch neueste Entwicklungen könnten die Branche ordentlich durchrütteln. Welche Herausforderungen damit verbunden sind und warum die EU den KI-Einsatz in geregelte Bahnen lenken will.

Von Jakob Pflügl

Ein Jugendlicher aus Cartagena leidet unter Autismus und braucht im Alltag Unterstützung, doch seine Familie hat kaum Geld. Muss er für seine Behandlungskosten dennoch selbst aufkommen? Oder soll die Krankenkassa die Gebühren für die Therapien übernehmen?

Der kolumbianische Richter Juan Manuel Padilla stellte diese Frage an ChatGPT – und legte die Antwort der Sprach-KI seinem Urteil zugrunde. Als die Entscheidung wenig später publik wurde, erklärte Padilla, dass er der Technologie bloß Aufgaben zugeteilt habe, für die er sonst zusätzlich Mitarbeiter benötigen würde. Kolumbiens Rechtssystem könne so „effizienter“ werden, war der Richter überzeugt.

Padillas Fall schaffte es vergangenes Jahr in die internationale Presse und löste eine weltweite Debatte über den Einsatz künstlicher Intelligenz (KI) in der Justiz aus. Nach der Veröffentlichung von ChatGPT schien es so, als wären dem Einsatz generativer Sprachmodelle keine Grenzen gesetzt: Würde die KI eines Tages mutmaßliche Straftäter_innen verhören? Würde sie irgendwann ganze Urteile vorbereiten? Über Schuld und Unschuld entscheiden?

Einsatz schon üblich

Mehr als ein Jahr nach Padillas Entscheidung kann davon noch keine Rede sein – doch als Assistenzsystem kommt KI in Kanzleien und Rechtsabteilungen schon jetzt zum Einsatz, sagt Sophie Martinetz, Gründerin des Legal-Tech-Netzwerks Future Law. Die Technologie unterstützt Anwält_innen dabei, bei Unternehmenskäufen einen Überblick über große Datenmengen zu bekommen oder Vertragsentwürfe mit wenigen Mausklicks zu individualisieren.

Sophie Martinetz

„Die Entwicklung generativer KI hat in der Legal-Tech-Branche ein enormes Momentum erzeugt.“

Sophie Martinetz

Auch die staatliche Justiz greift längst auf KI-Systeme zurück: Akten können so schneller durchsucht werden – man denke etwa an die Fülle an Chats, die derzeit die Wirtschafts- und Korruptionsstaatsanwaltschaft (WKStA) analysiert. KI hilft zudem dabei, Urteile zu anonymisieren oder via Spracherkennung Diktate schneller zu schreiben. Am Handelsgericht Wien läuft derzeit ein Pilotprojekt mit einer Aufnahme-KI, damit Verhandlungen künftig zügiger protokolliert werden können, erzählt Gerichtspräsidentin Maria Wittmann-Tiwald.

Revolution durch Sprach-KI

Large-Language-Models wie ChatGPT von OpenAI oder Gemini von Google, die 2023 zu einem regelrechten KI-Boom geführt haben, eröffnen neue Möglichkeiten. „Die Entwicklung dieser Technologien hat in der Legal-Tech-Branche ein enormes Momentum erzeugt. Jetzt ist es die Herausforderung, konkrete Use-Cases umzusetzen, die tatsächlich einen Mehrwert bieten“, erklärt Martinetz. Möglich ist schon heute, dass die Sprachmodelle Schriftsätze von Anwält_innen zusammenfassen, Sachverhalte analysieren oder Rechtsfragen beantworten.

„Momentan könnte man glauben, dass man sich als Jurist entspannt zurücklehnen kann, wenn man sieht, welche juristische Qualität ChatGPT und ähnliche Programme produzieren“, sagt Peter Parycek, Experte für Digitalisierung der Universität für Weiterbildung Krems. Bis dato werden die meisten Sprachmodelle mit frei verfügbaren Daten trainiert, die lückenhaft und fehlerhaft sind – und das spiegelt sich auch in der Qualität des Outputs wider. „Wenn die KI-Systeme dagegen auf qualitätsgesicherte Datenbanken und Informationen zurückgreifen, steigt das Niveau deutlich. Das sehen wir an ersten internen Projekten“, erklärt Parycek.

Derzeit arbeiten praktisch alle größeren juristischen Verlage an derartigen Lösungen. Die Idee: Anstatt mit öffentlichen Daten zu hantieren, sollen die fertig trainierten Sprachmodelle auf die Informationen der österreichischen Rechtsdokumentation zugreifen – etwa auf Gesetze, anonymisierte Urteile oder juristische Fachartikel. „Die Qualität des Outputs wird sich dadurch massiv erhöhen“, ist Parycek überzeugt. „Schafft man diesen Sprung, hat generative KI das Potenzial, so etwas wie die Dampfmaschine der juristischen Wissensarbeit zu werden.“

Maria Wittmann-Tiwald

„Wir wollen KI als Assistenz, aber nicht, dass sie endgültige Entscheidungen trifft.“

Maria Wittmann-Tiwald

Eine KI als Richter_in?

Könnte künstliche Intelligenz in einigen Jahren also sogar dazu fähig sein, behördliche Entscheidungen oder Urteile eigenständig vorzubereiten?

Aus Sicht von Parycek ist es ein „realistisches Szenario“, dass die KI dabei hilft, Urteilsentwürfe aufzusetzen. „Es braucht allerdings immer eine Expertin oder einen Experten, die oder der auf dieser Basis die endgültige Entscheidung trifft.“ Alles andere wäre schon aus verfassungsrechtlichen Gründen nicht erlaubt: Menschen haben ein Recht darauf, dass menschliche Richter_innen die Beweise würdigen und die letztgültige Entscheidung treffen.

„Auch als Gesellschaft sind wir noch nicht dazu bereit“, sagt Parycek. „Umfragen zeigen, dass es für KI-Assistenzsysteme eine überraschend hohe Akzeptanz gibt. Wenn man dagegen fragt, ob die Maschine alleine entscheiden soll, geht im Fall der Richterin oder des Richters die Akzeptanz gegen null.“ Ähnlich sieht das Gerichtspräsidentin Wittmann-Tiwald: „Wir wollen KI als Assistenz, aber nicht, dass sie endgültige Entscheidungen trifft.“

Peter Parycek

„Generative KI hat das Potenzial, so etwas wie die Dampfmaschine der juristischen Wissensarbeit zu werden.“

Peter Parycek

Human in the loop

In der Theorie spricht man dabei vom „Human in the loop“. Es soll nie die Maschine, sondern immer der Mensch sein, der die endgültige Entscheidung trifft und – wenn nötig – den Stecker zieht. In der Praxis sind damit jedoch Probleme verbunden: Studien zeigen, dass Menschen dazu neigen, computergestützten Entscheidungen eher zu vertrauen und ihnen zu folgen. In der Forschung wird dieses Phänomen als „Computational Bias“ bezeichnet.

Wird ein Urteil durch eine KI vorbereitet, kommt das einem „Nudge“ in eine gewisse Richtung gleich. Richter_innen könnten zwar davon abweichen, müssten allerdings Zeit und Energie investieren. Am Ende des Tages ist der „Human in the loop“ deshalb auch eine Ressourcenfrage: Wer viele Akten am Tisch liegen hat, könnte eher dazu tendieren, die vorbereiteten Entscheidungen der KI zu übernehmen.

„Der Computational Bias ist eine der schwierigsten Fragen im Zusammenspiel zwischen Mensch und Maschine“, betont Parycek. Die Lösung des Problems sieht er weniger in der Technik, sondern im Gesamtkontext. „Wir müssen sicherstellen, dass Richter_innen oder Beamt_innen ausreichend Zeit haben, Entscheidungen genau zu überprüfen. Und: Es sollten immer nur einzelne Bestandteile einer Entscheidung generiert werden. Der Prozess muss eine strukturierte Interaktion zwischen Mensch und Maschine sein“, fordert Parycek.

Ähnlich sieht das Richterin Wittmann-Tiwald. Mitarbeiter_innen der Justiz müssten möglichst früh im Umgang mit KI geschult werden, damit sie wissen, wofür sie geeignet ist und wofür nicht. „Man kann sich als Richter_in bei der rechtlichen Beurteilung helfen lassen, aber die Beweiswürdigung muss jeder selbst machen“, sagt Wittmann Tiwald. „Mittelfristig wird immer mehr KI eingesetzt werden, deshalb müssen wir ein kritisches Bewusstsein für die Probleme schaffen.“

Automatische Diskriminierung

Welche Probleme das sein können, zeigte in der Vergangenheit vor allem der Einsatz künstlicher Intelligenz in der Strafjustiz. Bekanntheit erlangte etwa die Software „Compas“, die von der US-Justiz eingesetzt wurde. Die KI errechnete, ob Täter_innen eine hohe Wahrscheinlichkeit haben, nach ihrer Verurteilung weitere Straftaten zu begehen. Diese Einstufung legten Richter_innen dann der Strafbemessung zugrunde.

2016 kam eine Analyse der Journalismus-Plattform ProPublica zum Ergebnis, dass die Software Schwarzen Menschen ein deutlich höheres Risiko unterstellte, wieder straffällig zu werden. Die KI hatte auf bestehende Daten zurückgegriffen und bereits vorhandene Diskriminierungsmuster reproduziert.

Zwar neigen auch Menschen dazu, sich bei ihren Entscheidungen bewusst oder unbewusst von Vorurteilen beeinflussen zu lassen; künstliche Intelligenz tut dies allerdings deutlich schneller und mit einer größeren Systematik. Umgekehrt bietet die Technologie aber auch die Chance, diskriminierende Entscheidungen zu erkennen und gezielt „herauszurechnen“, sagt Thomas Ratka, Vizedekan und Professor für Unternehmensrecht an der Universität Krems. „Wenn das gelingt, könnte die KI eines Tages vielleicht sogar Richterinnen und Richtern dabei helfen, neutralere Entscheidungen zu treffen.“

Neue KI-Regeln

Probleme wie der „Computational Bias“ und die Gefahr der Diskriminierung haben die EU-Institutionen auch in der geplanten KI-Verordnung berücksichtigt. Das Regelwerk folgt einem risikobasierten Ansatz. KI wird – je nach Anwendungsbereich – entweder als problemlos, risikobehaftet oder verboten eingestuft.

Thomas Ratka

„Eines Tages könnte KI Richterinnen und Richtern dabei helfen, neutralere Entscheidungen zu treffen.“

Thomas Ratka

„Es ist gut, dass es gelungen ist, einen gemeinsamen Rechtsrahmen in der EU zu schaffen“, findet Markus Fallenböck, Vizerektor der Universität Graz und Professor für Innovationsrecht. Den Ansatz, bei höheren Risiken höhere Pflichten aufzuerlegen, sieht er positiv – auch wenn das System mit schwierigen Abgrenzungsfragen verbunden ist. Unternehmen seien sich am Beginn einer KI-Entwicklung nämlich oft nicht sicher, unter welche Kategorie sie fallen.

Als Herausforderung sieht er zudem die rasche Entwicklung im KI-Bereich. Durch die breite Definition von KI gebe es aber Flexibilität in dem Regelwerk. „Man hat eine bewegliche Definition geschaffen, mit der man ganz gut durchkommen wird“, glaubt Fallenböck.

Betroffen von der Verordnung ist nicht zuletzt auch der staatliche Sektor. Für Polizei und Justiz sieht sie bestimmte Verbote vor. „Nicht erlaubt sind zum Beispiel prädiktive Polizeisysteme, Emotionserkennung oder biometrische Kategorisierungen“, erklärt Ratka. Die Justiz als solche ist zudem als Hochrisiko-System eingestuft und damit an strenge Schutzvorschriften gebunden. „Sie muss etwa offenlegen, auf welchen Daten eine Entscheidung beruht und wie diese Daten aussehen“, betont Fallenböck.

Die Einstufung der Justiz als Hochrisikobereich sehen die Juristen grundsätzlich positiv. So sei garantiert, dass ein wirksames Qualitätsmanagement einrichtet wird. Es gibt aber auch Bedenken: Die Anwaltschaft ist an weniger strenge Vorschriften gebunden. Innerhalb der Justiz gibt es Befürchtungen, dass dies zu einem Ungleichgewicht führen könnte: Wenn Anwält_innen in der Lage sind, innerhalb kürzester Zeit tausende Klagen einzubringen, müsse die Justiz die Möglichkeit haben, mit denselben Mitteln zu reagieren.

Künstliche Faulheit

Insgesamt könne die technologische Entwicklung den Zugang zum Recht jedenfalls verbessern, ist Ratka überzeugt. „Vor allem für Menschen, die niedrige Streitwerte einklagen, zum Beispiel bei Fluggastrechten oder im Dieselskandal.“ Durch automatisierte Verfahren werden die Kosten niedriger, damit sinkt auch die Hürde, sich auf einen Rechtsstreit einzulassen. „Die ‚Zwei-Klassen-Justiz‘ haben wir ja vor allem deshalb, weil einer der Prozessgegner eine größere Kriegskassa hat“, betont Ratka.

Dass im Zuge der technologischen Entwicklung Verfahren immer schneller ablaufen, habe jedoch nicht nur Vorteile. „Wenn der Richter bei einem Zivilprozess die Verhandlung schließt und den Folgetermin ein halbes Jahr später anberaumt, ist das zunächst ärgerlich“, sagt Ratka. „Aber oft finden dazwischen Vergleichsgespräche statt und man findet eine Lösung. Manchmal müssen Rechtsfälle eben reifen. Durch den verstärkten Einsatz von Algorithmen könnte das verloren gehen.“

Ratka hätte allerdings schon eine Idee, wie man dieses Problem lösen könnte – und zwar mit gezielten Nachdenk- und Verhandlungspausen: „Wenn es künstliche Intelligenz gibt, müsste es auch so etwas wie künstliche Faulheit geben“, scherzt der Jurist.

Markus Fallenböck

„Es ist gut, dass es gelungen ist, einen gemeinsamen Rechtsrahmen in der EU zu schaffen.“

Markus Fallenböck

Im Fall aus Kolumbien sprach ChatGPT dem Jugendlichen die Sozialleistungen übrigens zu. Ob das Verfahren mittlerweile letztinstanzlich entschieden wurde, ist nicht überliefert. Gegenüber der britischen Zeitung „Guardian“ äußerte sich der kolumbianische Höchstrichter Octavio Tejeiro zumindest nicht abgeneigt. „Das Justizsystem sollte das meiste aus der Technologie herausholen, solange ethische Grundsätze eingehalten werden“, sagte Tejeiro. Er selbst habe die Sprach-KI noch nicht verwendet – in Zukunft könne sich das aber ändern.

Jakob Pflügl ist Redakteur bei der Tageszeitung Der Standard


SOPHIE MARTINETZ
Mag.a Sophie Martinetz ist Gründerin des Legal-Tech-Netzwerks Future Law. An der Wirtschaftsuniversität leitet die Rechtswissenschaftlerin das Legal Tech Center. Davor war sie u.a. Head of Global Referals Unit der Barclays Corporate Bank, London und Head of Business Service, Corporate Strategy bei der BAWAG/PSK.

MARIA WITTMANN-TIWALD
Dr.in Maria Wittman-Tiwald ist Präsidentin des Handelsgerichts Wien. Seit 1989 ist sie Richterin an verschiedenen Gerichten in Wien in Zivilsachen. Sie ist Mitglied der Übernahmekommission und war Co-Vorsitzende der Fachgruppe Grundrechte in der Vereinigung der österreichischen Richterinnen und Richter.

PETER PARYCEK
Univ.-Prof. Mag. Dr. Peter Parycek, MAS MSc ist Vizerektor für Lehre/Wissenschaftliche Weiterbildung und digitale Transformation der Universität für Weiterbildung Krems. Der Experte für Digitalisierung in der Verwaltung leitet das Department für E-Governance in Wirtschaft und Verwaltung und das Kompetenzzentrum Öffentliche IT (ÖFIT) am Fraunhofer Fokus Institut Berlin.

THOMAS RATKA
Univ.-Prof. Dr. Dr. Thomas Ratka, LL.M. ist Vizedekan der Fakultät für Wirtschaft und Globalisierung und Professor für Unternehmensrecht an der Universität für Weiterbildung Krems, wo er das Department für Rechtswissenschaften und Internationale Beziehungen leitet.

MARKUS FALLENBÖCK
Univ.-Prof. Dr. Markus Fallenböck LL.M. ist Vizerektor für Personal und Digitalisierung der Universität Graz und Professor für Innovationsrecht. Er beschäftigt sich seit über 20 Jahren mit der rechtlichen und wirtschaftlichen Umsetzung der digitalen Transformation und lehrt am Institut für Öffentliches Recht und Politikwissenschaft.

LINK

Artikel dieser Ausgabe

Zum Anfang der Seite