3. Februar 2023, 13:04 Uhr | Lesezeit: 3 Minuten
Warum sollte man es sich schwer machen, wenn es – künstlicher Intelligenz sei Dank – auch einfach geht? So könnte man es interpretieren, dass sich ein Richter aus Kolumbien ein Urteil vom Textgenerator ChatGPT hat schreiben lassen. Er wolle auch in Zukunft so vorgehen. Rechtlich ist das wohl zulässig, doch es spricht auch einiges dagegen. Lesen Sie alles dazu bei TECHBOOK.
Bei dem in der Hafenstadt Cartagena verhandelten Fall ging es um ein autistisches Kind und die Frage, ob dessen Versicherung die Kosten für seine medizinische Behandlung tragen muss. Der Richter stellte sie ChatGPT, dem Chatbot von Open AI, und erhielt eine formvollendete Antwort, die auf einem entsprechenden Gesetzestext beruhte. Demnach sind mit Autismus diagnostizierte Minderjährige in Kolumbien von der Zahlung von Therapiegebühren befreit. Der Prozess war also entschieden. Doch so hat der Mann ein ganz anderes Fass aufgemacht: Ist es wirklich okay, dass Richter ihre Urteile von ChatGPT schreiben lassen?
Übersicht
Richter will auch in Zukunft ChatGPT für Urteilssprüche nutzen
Der Richter war bei seinem Vorgehen transparent, er hat das „Gespräch“ mit dem Chatbot veröffentlicht. Und im Interview mit dem Radiosender „Bluradio“ findet er Argumente für die Nutzung von ChatGPT in seinem Beruf. Zumal sie nur logisch sei. Gesetzestexte heraussuchen – das müsse normalerweise sein Sekretär machen, erklärt er. Mit ChatGPT gehe es schneller und man habe zudem den Vorteil eines fertigen, in klarer und verständlicher Sprache formulierten Urteilsspruchs. Er sei überzeugt: Kollegen werden es ihm nachtun.
Auch interessant: Neue Religion will gottgleiche Künstliche Intelligenz verehren
Gesetz erlaubt nicht nur, sondern fordert die Nutzung von KI
Rechtlich scheint der Mann auf der sicheren Seite. Denn gemäß eines kolumbianischen Gesetzes aus dem Jahr 2022 ist es zulässig, künstliche Intelligenz zur Urteilsfindung einzusetzen. Es werde sogar gefordert, um das Arbeiten effizienter zu machen. Die Vorteile liegen vermeintlich auf der Hand. Denn ChatGPT ist dazu in der Lage, in Sekundenschnelle den genauen Wortlaut von Gesetzen und darüber hinaus Präzedenzfällen aufzurufen. Dies soll ein faires Urteil gewährleisten. Doch das Ganze ist nicht frei von Haken.
Kompetenzen von ChatGPT nicht überschätzen
Damit ChatGPT so viele Antworten parat hat, wurde Open AI über ein eigens dafür entwickeltes Sprachmodell mit zahllosen Informationen gefüttert. Doch diese „Ausbildung“ war Ende 2021 abgeschlossen – seit 2022 sind keine neuen Inhalte eingelaufen. Es kann somit gut sein, dass der Textgenerator auf veraltetes Wissen zurückgreift.
Falsche Informationen in 80 Prozent der Fälle
Laut dem Dienst „NewsGuard“ ist ChatGPT nicht bloß weniger zuverlässig als oft beworben, sondern vielmehr ein „Superspreader für Falschinformationen“. Nach einer stichprobenartigen Untersuchung von Antworten durch das Tool sprechen die Analysten von eine Fehlerquote von immerhin 80 Prozent. Der Vortrag sei jedoch stets eloquent und entsprechend überzeugend.
ChatGPT Neuer Chatbot ist Menschen so ähnlich wie nie
Dienste werden schlauer Die KI-Neuheiten von Googles Entwicklerkonferenz
Jetzt verfügbar Microsoft stellt neue Bing-Suche mit ChatGPT vor
ChatGPT selbst sieht KI-Nutzung für Richterurteile kritisch
Sogar der Bot selbst würde seine Nutzung für Urteilssprüche durch Richter allenfalls eingeschränkt empfehlen, TECHBOOK hat ihn gefragt. Zwar gebe es „keine direkte Regelung, die es Richtern verbietet, ein KI-Modell wie ChatGPT zu verwenden, um bei ihren Entscheidungen zu unterstützen. Es kann jedoch von Bedeutung sein, dass ein solches Verfahren den Anforderungen an Unparteilichkeit und Unabhängigkeit im Rechtswesen entspricht und dass Entscheidungen auf einer angemessenen und rechtmäßigen Grundlage getroffen werden“. Es wäre daher sinnvoll, so das Tool, eine rechtliche Überprüfung durchzuführen, bevor ein per KI generierter Urteilsspruch verlesen wird.