Trotz des Rückstoßes von Richtern wächst die Verwendung generativer KI -Tools in Rechtsverfahren weiter. Anfangs wurde es in Gerichtssälen verwendet, um gefälschte Fälle zu erstellen, aber jetzt entwickelt es sich mit fortschrittlicher Video- und Audio -Technologie weiter.
In einem kürzlichen Fall in Arizona präsentierte die Familie eines Mord-Opfers ein Video mit einer AI-Version von Chris Pelkey, die 2021 getötet wurde. Dieser „Klon“ von Ai-generiertem „Klon“ befasste sich mit seinem mutmaßlichen Mörder vor Gericht und kennzeichnete die erste Verwendung eines Deepfake in einer Auswirkungen auf die Auswirkung des Opfers.
Im Video sprach die generierte Version von Pelkey direkt mit dem Angeklagten und drückte Bedauern über ihre Begegnung aus. Der Richter verurteilte den Angeklagten zu 10,5 Jahren Gefängnis und stellte fest, dass die Erklärung der AI-generierten Erklärung seine Entscheidung beeinflusste. Die Familie Pelkey hat das Video erstellt, indem er ein KI -Modell für Clips von ihm trainierte und einen „Alterszeitfilter“ anwendet, um zu zeigen, wie er heute aussehen könnte.
Gary Marchant, ein Rechtsprofessor an der Arizona State University, der Ethik und neue Technologien wie AI studiert, lobte Pelkeys Familie für eine Erklärung, die gegen ihr eigenes Ziel zu verstoßen schien, die härteste Bestrafung für Horcasitas zu erhalten. Er äußerte sich jedoch besorgt über das Beispiel.
Während Staatsanwälte und Verteidiger traditionell visuelle Hilfsmittel, Diagramme und andere Illustrationen verwendet haben, um ihre Argumente zu unterstützen, stellte Marchant fest, dass künstliche Intelligenz neue ethische Herausforderungen einführt. Marchant bemerkte, dass die Situation ziemlich kompliziert ist. Er wies darauf hin, dass Sie jemanden sehen können, der zu sprechen scheint, der dies nicht tut. In Wirklichkeit ist diese Person verstorben und spricht überhaupt nicht. Er glaubt, dass dies eine zusätzliche Komplexitätsebene schafft, die zu riskanten Situationen führen könnte.
In einem anderen Fall verwendete ein Mann in New York, Jerome Dewald, ein DeepFake -Video, um seine Rechtsverteidigung in einem Vertragsstreit zu unterstützen. Der Richter war verwirrt und dachte, die computergenerierte Figur sei Dewalds Anwalt. Dewald stellte später klar, dass das Video von ihm erstellt wurde, um seinen Fall klarer zu erklären, um das Gericht nicht irrezuführen.
Diese Beispiele unterstreichen den wachsenden Trend der generativen KI in Gerichtssälen, die mit der Popularität von Chatbots wie Chatgpt anfing. Anwälte haben KI verwendet, um rechtliche Dokumente zu entwerfen, dies hat jedoch zu Fragen geführt, einschließlich der Einreichung von gefälschten Fallnamen, die von AI generiert wurden. Einige Anwälte waren mit Sanktionen ausgesetzt, um KI unangemessen zu verwenden, und wirft Fragen zu den Regeln für KI in rechtlichen Umgebungen auf.
Das wesentliche ethische Anliegen bei der Verwendung künstlicher Intelligenz in Rechtsfällen ist das Risiko von Verzerrungen und unfairen Ergebnissen aufgrund von voreingenommenen Schulungsdaten. Da es aus den Informationen erfährt und diese Informationen in früheren Vorurteilen enthält, wird die KI wahrscheinlich fortgesetzt und sogar diese Vorurteile erhöhen, was zu unfairen Ergebnissen führt.
Die Geschichte geht weiter