Pengajuan kasus pembunuhan termasuk kutipan yang dihasilkan AI, penilaian yang tidak ada

Seorang pengacara senior di Australia telah meminta maaf kepada hakim karena mengajukan pengajuan dalam kasus pembunuhan yang mencakup kutipan palsu dan penilaian kasus yang tidak ada yang dihasilkan oleh kecerdasan buatan.
Kesalahan di Mahkamah Agung Negara Bagian Victoria adalah yang lain dalam litani kecelakaan yang disebabkan oleh AI dalam sistem peradilan di seluruh dunia.
Pengacara pembela Rishi Nathwani, yang memegang gelar hukum bergengsi dari penasihat King, mengambil “tanggung jawab penuh” untuk mengajukan informasi yang salah dalam pengajuan dalam kasus seorang remaja yang didakwa dengan pembunuhan, menurut dokumen pengadilan yang dilihat oleh Associated Press pada hari Jumat.
“Kami sangat menyesal dan malu atas apa yang terjadi,” kata Nathwani kepada Hakim James Elliott pada hari Rabu, atas nama tim pertahanan.
Kesalahan yang dihasilkan AI menyebabkan keterlambatan 24 jam dalam menyelesaikan kasus yang diharapkan Elliott pada hari Rabu. Elliott memutuskan pada hari Kamis bahwa klien Nathwani, yang tidak dapat diidentifikasi karena dia adalah anak di bawah umur, tidak bersalah atas pembunuhan karena gangguan mental.
“Dengan risiko meremehkan, cara di mana peristiwa -peristiwa ini terjadi tidak memuaskan,” kata Elliott kepada pengacara, Kamis.
“Kemampuan pengadilan untuk mengandalkan keakuratan pengajuan yang dibuat oleh penasihat hukum merupakan hal mendasar bagi administrasi peradilan yang tepat,” tambah Elliott.
Pengajuan palsu termasuk kutipan buatan dari pidato ke legislatif negara bagian dan kutipan kasus yang tidak ada yang konon dari Mahkamah Agung.
Kesalahan itu ditemukan oleh rekan Elliot, yang tidak dapat menemukan kasus yang dikutip dan meminta pengacara pembela memberikan salinan, Australian Broadcasting Corporation dilaporkan.
Para pengacara mengakui kutipan “tidak ada” dan bahwa pengajuan itu berisi “kutipan fiktif,” kata dokumen pengadilan.
Para pengacara menjelaskan bahwa mereka memeriksa bahwa kutipan awal akurat dan salah diasumsikan yang lain juga akan benar.
Pengajuan juga dikirim ke jaksa Daniel Porceddu, yang tidak memeriksa akurasi mereka.
Hakim mencatat bahwa Mahkamah Agung merilis pedoman tahun lalu tentang bagaimana pengacara menggunakan AI.
“Tidak dapat diterima untuk kecerdasan buatan untuk digunakan kecuali produk dari penggunaan itu secara independen dan menyeluruh diverifikasi,” kata Elliott.
Rod McGuirk / AP
Dokumen pengadilan tidak mengidentifikasi sistem intelijen buatan generatif yang digunakan oleh pengacara.
Dalam kasus yang sebanding di Amerika Serikat pada tahun 2023, seorang hakim federal mengenakan denda $ 5.000 pada dua pengacara dan firma hukum setelahnya Chatgpt disalahkan untuk pengajuan penelitian hukum fiktif mereka dalam klaim cedera penerbangan.
Hakim P. Kevin Castel mengatakan mereka bertindak dengan itikad buruk. Tetapi dia memuji permintaan maaf mereka dan langkah -langkah perbaikan yang diambil dalam menjelaskan mengapa sanksi yang lebih keras tidak diperlukan untuk memastikan mereka atau orang lain tidak akan lagi membiarkan alat intelijen buatan meminta mereka untuk menghasilkan sejarah hukum palsu dalam argumen mereka.
Belakangan tahun itu, putusan pengadilan yang lebih fiktif yang ditemukan oleh AI dikutip dalam surat -surat hukum diajukan oleh pengacara untuk Michael Cohenmantan pengacara pribadi untuk Presiden AS Donald Trump. Cohen menyalahkan, mengatakan dia tidak menyadari bahwa alat Google yang dia gunakan untuk penelitian hukum juga mampu disebut halusinasi AI.
Hakim Pengadilan Tinggi Inggris Victoria Sharp memperingatkan pada bulan Juni bahwa menyediakan materi palsu seolah -olah itu asli dapat dianggap penghinaan terhadap pengadilan atau, dalam “kasus -kasus paling mengerikan,” memutarbalikkan keadilan, yang membawa hukuman seumur hidup maksimal di penjara.
Penggunaan kecerdasan buatan sedang masuk ke ruang sidang AS dengan cara lain. Pada bulan April, seorang pria bernama Jerome Dewald muncul di hadapan pengadilan New York dan mengajukan a video Itu menampilkan avatar yang dihasilkan AI untuk menyampaikan argumen atas namanya.
Pada bulan Mei, seorang pria yang terbunuh dalam insiden kemarahan di Arizona “berbicara “selama sidang hukuman pembunuhnya Setelah keluarganya menggunakan kecerdasan buatan untuk membuat video dia membaca pernyataan dampak korban.