Channel9.id-Jakarta. Steven A Schwartz, pengacara Amerika Serikat ditemukan menggunakan layanan perangkat lunak kecerdasan buatan ChatGPT untuk menulis kertas tuntutan. Sebelumnya Steven menyerahkan kertas tuntutan terhadap perusahaan penerbangan Avianca, untuk mewakili Robert Mata yang mengalami kecelakaan.
Steven sendiri disebut sebagai seorang pengacara senior menyerahkan legal brief sebanyak 10 halaman yang berisi beberapa keputusan hukum sebelumnya. Keputusan hukum kasus serupa dianggap dapat memperkuat posisi pihak penuntut.
Namun legal brief tersebut dinilai tidak memiliki kebenaran mengenai berbagai kasus yang dikutipnya. Hakim dan pihak tertuntut sepakat bahwa kasus yang dikutip dalam brief tersebut penuh dengan kebohongan.
Sebagai contoh salah satu kasus yang dikutip dalam tulisan Steven adalah Zichermen melawan Korean Air Lines Co memang merupakan kasus sungguhan namun detail mengenai tanggal dan hasil persidangannya salah.
Steven sendiri mengaku terkejut karena tidak mengetahui bahwa hasil tulisan briefnya yang mengutip ChatGPT dapat salah. Dia sendiri mengaku bahwa tidak bermaksud untuk menipu proses sidang. Steven menyebut dirinya menyesali tindakannya karena menggunakan program kecerdasan buatan itu tanpa diikuti dengan verifikasi lebih mendalam.
Sebelumnya dia menyebutkan telah melakukan verifikasi sebelum finalisasi namun hal tersebut terbukti tidak cukup. Steven sekedar menggunakan pertanyaan atau prompt ke AI dengan bertanya apakah chatbot itu berbohong, ChatGPT merespon dengan menyebut bahwa kasus yang dikutip itu sungguh ada.
P. Kevin Castel, hakim distrik Amerika merespon legal brief yang ditulis oleh Steven dalam surat bertanda tangannya dan tertanggal 4 Mei 2023. Disebutkan hakim memerintahkan sidang lanjutan untuk memberi sanksi terhadap Steven Schwartz.
Kasus Robert Mata yang di kuasakan ke Steven A Schwatz melawan Aviaca menjadi masalah yang disebabkan oleh penggunaan kecerdasan buatan, terutama yang memiliki kemampuan generative seperti ChatGPT. Dilansir dari New York Times, Stephen Giller, professor etika hukum di New York University School of Law, menyinggung mengenai isu ini.
Menurut dia layanan perangkat lunak semacam AI akan selalu membutuhkan tenaga manusia untuk melakukan verifikasi. “ Anda tidak dapat langsung copy-paste hasil (dari AI) ke surat untuk persidangan,”
(FB)