AI

Kann KI effizienter sein als Menschen im Justizsystem?

Kann KI effizienter sein als Menschen im Justizsystem?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

KI wird in Zukunft viele menschliche Arbeitsplätze ersetzen, aber sollten Anwälte und Richter darunter sein? Hier untersuchen wir, wo KI bereits in Justizsystemen auf der ganzen Welt eingesetzt wird, und diskutieren, ob sie eine breitere Rolle spielen sollte.

Könnte oder sollte insbesondere jemals eine KI entwickelt werden, die ein Urteil über einen lebenden, atmenden Menschen fällen könnte?

VERBINDUNG: CHINA HAT EINEN AI-RICHTER ENTDECKT, DER BEI GERICHTSVERFAHREN "HILFT"

Wie wird KI derzeit in Justizsystemen eingesetzt?

Ob Sie es glauben oder nicht, KI und andere Formen fortschrittlicher Algorithmen sind in vielen Justizsystemen auf der ganzen Welt bereits weit verbreitet. In einer Reihe von Staaten in den Vereinigten Staaten werden derzeit beispielsweise Vorhersagealgorithmen verwendet, um die Belastung des Justizsystems zu verringern.

"Unter dem immensen Druck, die Zahl der Gefängnisinsassen zu verringern, ohne eine Zunahme der Kriminalität zu riskieren, haben sich Gerichtssäle in den USA automatisierten Tools zugewandt, um Angeklagte so effizient und sicher wie möglich durch das Rechtssystem zu bringen." - Technologieüberprüfung.

Um dies zu erreichen, verwenden die US-Polizeibehörden Vorhersagealgorithmen, um Strategien zu entwickeln, mit denen ihre Streitkräfte am effektivsten eingesetzt werden können. Mit einer Analyse historischer Kriminalitätsstatistiken und -technologien wie der Gesichtserkennung soll dieser Automatisierungsgrad dazu beitragen, die Effektivität ihrer Humanressourcen zu verbessern.

Der US-Justizdienst verwendet auch andere Formen von Algorithmen, sogenannte Risikobewertungsalgorithmen, um auch Fälle nach der Festnahme zu behandeln.

"Risikobewertungsinstrumente dienen dazu, eines zu tun: die Details des Profils eines Angeklagten zu erfassen und eine Rückfallbewertung auszuspucken - eine einzelne Zahl, die die Wahrscheinlichkeit schätzt, dass er oder sie erneut beleidigt wird.

Ein Richter berücksichtigt dann Faktoren, die zu einer Vielzahl von Entscheidungen führen, die bestimmen können, welche Art von Rehabilitationsleistungen bestimmte Angeklagte erhalten sollten, ob sie vor dem Prozess im Gefängnis festgehalten werden sollten und wie streng ihre Strafen sein sollten. Eine niedrige Punktzahl ebnet den Weg für ein besseres Schicksal. Eine hohe Punktzahl macht genau das Gegenteil. "- Technology Review.

In China werden auch Richter mit KI-Antrieb Realität. Die Stadt Peking wurde als "weltweit erste ihrer Art" proklamiert und hat ein internetbasiertes Prozesszentrum für Rechtsstreitigkeiten eingeführt, in dem ein KI-Richter für bestimmte Arten von Fallarbeiten vertreten ist.

Die Richterin namens Xinhua ist eine künstliche Frau mit einem Körper, Mimik, Stimme und Handlungen, die auf einer im Justizdienst von Peking lebenden lebenden und atmenden Richterin basieren.

Dieser virtuelle Richter wird hauptsächlich für grundlegende sich wiederholende Fallarbeiten verwendet, so das Internetgericht in Peking in einer Erklärung. 'Sie' befasst sich hauptsächlich mit dem Empfang von Rechtsstreitigkeiten und der Online-Beratung und nicht mit dem endgültigen Urteil.

Die Hoffnung ist, dass der Einsatz des AI-gestützten Richters und des Online-Gerichts den Zugang zu den Gerichtsverfahren für Pekings Bürger effektiver und umfassender machen wird.

"Laut Gerichtspräsident Zhang Wen wird die Öffentlichkeit durch die Integration von KI und Cloud Computing in das Prozessdienstsystem besser von den Vorteilen technologischer Innovationen in China profitieren können." - Radien China.

KI wird auch in China verwendet, um Social-Media-Nachrichten, Kommentare und andere Online-Aktivitäten zu durchsuchen und Beweise gegen potenzielle Angeklagte zu sammeln. Die Verkehrspolizei in China setzt zunehmend Gesichtserkennungstechnologien ein, um Straftäter zu identifizieren und zu verurteilen.

Andere Polizeikräfte auf der ganzen Welt setzen ähnliche Technologien ebenfalls ein.

Könnte künstliche Intelligenz jemals gute Entscheidungen treffen?

Die Antwort auf diese Frage ist nicht einfach. KI kann zwar einige Arten von rechtlichen Entscheidungen treffen, dies bedeutet jedoch nicht, dass dies unbedingt eine gute Idee ist.

Viele KI-Systeme und Vorhersagealgorithmen, die maschinelles Lernen verwenden, werden in der Regel unter Verwendung vorhandener Datensätze oder vorhandener historischer Informationen trainiert.

Dies klingt zwar nach einem relativ logischen Ansatz, hängt jedoch stark von der Art und Qualität der gelieferten Daten ab.

"Junk rein, Junk raus." wie das Sprichwort sagt.

Eine Hauptanwendung von maschinellem Lernen und Big Data besteht darin, Korrelationen oder offensichtliche Korrelationen innerhalb von Datensätzen zu identifizieren. Dies könnte bei Daten zu Straftaten möglicherweise zu Fehlalarmen führen und ist für die Ermittlung der zugrunde liegenden Ursachen von Straftaten möglicherweise nicht sehr nützlich.

Wie ein anderes berühmtes Sprichwort warnt: "Korrelation ist keine Kausalität."

Menschen sind an diesem logischen Irrtum oft genauso schuld, wie es eine künstliche Nachbildung möglicherweise sein könnte. Ein berühmtes Beispiel ist die Korrelation zwischen niedrigem Einkommen und der Neigung einer Person zur Kriminalität.

Armut ist nicht unbedingt eine direkte Ursache für kriminelles Verhalten, aber sie kann eine indirekte Ursache sein und Bedingungen schaffen, die Kriminalität wahrscheinlicher machen.

Wenn ähnliche Korrelationsfehler nicht korrekt behandelt werden, kann eine Entscheidung oder ein Urteil der KI-Strafverfolgungsbehörden schnell zu einem Teufelskreis von Strafen führen, die zu schwerwiegend oder zu nachsichtig sind.

Wie bei allem im Leben ist die Situation tatsächlich nuancierter als es scheint. Menschen sind auch keine perfekten Entscheidungsmaschinen.

Wenn Studien aus dem Jahr 2018 ebenfalls korrekt sind, scheint es, dass KI potenzielle rechtliche Probleme schneller und genauer erkennen kann als Menschen. Dies unterstützt die Argumentation, dass KI in Rollen der rechtlichen Unterstützung oder zumindest in der Überprüfung von Präzedenzfällen verwendet werden sollte.

Könnte KI verwendet werden, um menschliche Richter zu ersetzen?

Wie wir bereits gesehen haben, werden KI und fortschrittliche Algorithmen bereits weltweit für bestimmte Büro- und Datenerfassungsaufgaben verwendet. Tatsächlich erledigen sie einen Teil der "Beinarbeit" für menschliche Richter und Anwälte.

Aber könnten sie jemals verwendet werden, um Menschen in einem Justizsystem vollständig zu ersetzen? Was genau wären die Vor- und Nachteile davon?

Viele würden behaupten, dass eine KI in der Lage sein sollte, jegliche Verzerrung im endgültigen Entscheidungsprozess zu beseitigen. Ihre endgültigen Entscheidungen sollten theoretisch ausschließlich auf den vorliegenden Tatsachen und bestehenden rechtlichen Präzedenzfällen beruhen.

Dies soll natürlich schon bei menschlichen Richtern der Fall sein. Aber jeder Mensch ist anfällig für unvollständiges Wissen, Vorurteile und unbewusste Vorurteile, trotz der besten Absichten.

Aber wahrscheinlich noch wichtiger: Nur weil etwas Gesetz ist, heißt das nicht, dass es gerecht ist. "Gutes" und "schlechtes" Verhalten ist nicht schwarz oder weiß, es ist eine sehr nuancierte und vollständig menschliche Konstruktion.

Solche Fragen bleiben im Bereich der Philosophie, nicht der Informatik. Obwohl andere wahrscheinlich nicht zustimmen würden, und das könnte als "gute" Sache angesehen werden.

Die Richter haben auch die Aufgabe, Entscheidungen über die Bestrafung des Täters nach der Verurteilung zu treffen. Diese können von geringfügigen (kleinen Geldstrafen) bis hin zu lebensverändernden Maßnahmen wie der Verhängung einer langfristigen Haftstrafe oder sogar der Todesstrafe in Gebieten, in denen sie angewendet werden, reichen.

Solche Entscheidungen basieren im Allgemeinen auf einer Reihe von Richtlinien für die Verurteilung, die Faktoren wie die Schwere eines Verbrechens, seine Auswirkungen auf die Opfer, frühere Verurteilungen und die Wahrscheinlichkeit einer erneuten Straftat des Verurteilten berücksichtigen. Wie wir gesehen haben, ist dies ein Bereich, in dem bereits KI- und Vorhersagealgorithmen verwendet werden, um den Entscheidungsprozess zu unterstützen.

Die Richter können die Empfehlung der KI natürlich völlig ignorieren. Dies wäre jedoch möglicherweise nicht möglich, wenn die Menschen vollständig aus dem Prozess entfernt würden.

Vielleicht könnte hier ein Fall für Gremien von KI-Richtern gemacht werden, die aus einem generativen kontradiktorischen Netzwerk (GAN) bestehen.

Dies würde jedoch den Rahmen dieses Artikels sprengen.

Würden KI-Richter unvoreingenommen sein?

Ein offensichtlicher Vorteil der Verwendung von KI zum Treffen von Entscheidungen besteht darin, dass Algorithmen nicht wirklich voreingenommen sein können. Dies sollte die KI für rechtliche Entscheidungen nahezu perfekt machen, da der Prozess eher evidenzbasiert als subjektiv sein sollte - wie dies bei menschlichen Richtern der Fall sein kann.

Klingt perfekt, nicht wahr? Aber "das Gras ist auf der anderen Seite nicht immer grüner."

Algorithmen und KI sind in dieser Hinsicht an sich nicht perfekt. Dies liegt hauptsächlich daran, dass jeder Algorithmus oder jede KI zuerst von einem Menschen codiert werden muss.

Dies kann zu einer unbeabsichtigten Vorspannung des Versatzes führen.

AIs können sogar von ihren menschlichen Kollegen und von den spezifischen Daten, mit denen sie trainiert wurden, Vorurteile lernen und nachahmen. Könnte dies jemals gemildert werden?

Ein weiteres Problem ist, wer die KI-Richter beaufsichtigen wird. Könnten ihre Entscheidungen zu einem späteren Zeitpunkt angefochten werden? Würden menschliche Richter Vorrang vor einer Entscheidung einer KI haben oder umgekehrt?

Der Weltregierungsgipfel im Jahr 2018 kam zu einem interessanten und ergreifenden Ergebnis zu diesem Thema, das wiederholt werden muss wörtlich: -

"Es ist noch ungewiss, welche dieser Technologien sich verbreiten werden und wie verschiedene Regierungen und Justizbehörden ihre Verwendung überwachen werden.

Der Tag, an dem die Technologie über gutes und schlechtes menschliches Verhalten urteilt und angemessene Strafen verhängt, liegt noch in der Zukunft.

Rechtssysteme bieten jedoch häufig ideale Beispiele für Dienste, die verbessert werden könnten, während Studien wahrscheinlich von einer besseren Datenanalyse profitieren. Das Gesetz verlangt oft einen Prozess, um einen Präzedenzfall zu schaffen - achten Sie also auf den Testfall der KI als Richter. "

Könnte AI jemals menschliche Angehörige der Rechtsberufe ersetzen oder bei der rechtlichen Entscheidungsfindung effizienter sein? Die Antwort scheint sowohl Ja als auch Nein zu sein.

Ja, in Bezug auf die Wahrnehmung von Unterstützungs- oder Beratungsaufgaben wie das Sammeln von Beweisen oder das Abschätzen der Wahrscheinlichkeit einer erneuten Zuwiderhandlung. Nein, in Bezug auf endgültige Urteile und Urteilsentscheidungen.

Es ist wahrscheinlich ratsam, den Menschen anstelle des Codes das letzte Wort zu geben, wenn es um die Verurteilung geht. Das Gesetz und die Rechtssysteme können schließlich rechtmäßig als menschliche Konstruktion bezeichnet werden.

Bestehende Rechtssysteme sind sowohl wunderschön von der Jury manipuliert als auch manchmal unlogisch und wurden angepasst und verbessert, da sich Sinn und Sensibilität im Laufe der Zeit weiterentwickelt haben - und das passt gut zu Menschen. Die meisten Rechtssysteme sind nicht für alle Zeiten in Stein gemeißelt. Sie entwickeln sich wie die Gesellschaft.

Es ist unwahrscheinlich, dass eine Maschine jemals darauf trainiert werden könnte, "im Geiste des Gesetzes" zu verstehen, sich in sie hineinzuversetzen oder ein Urteil zu fällen.

Vielleicht sind Menschen mit all unseren Unvollkommenheiten und logischen Inkonsistenzen die einzig möglichen Schiedsrichter der Gerechtigkeit untereinander. Aus diesem Grund könnte argumentiert werden, dass "Gerechtigkeit" niemals an Maschinen delegiert werden sollte, da ihre "kalte Logik" als im Widerspruch zum "menschlichen Zustand" stehend angesehen werden könnte.

Aber wir lassen Sie sich selbst entscheiden.


Schau das Video: Künstliche Intelligenz oder die Wiederentdeckung der Zukunft - Vortrag (Kann 2022).