Teknologi

Anda tidak bisa memfitnah orang mati. Tapi itu tidak berarti Anda harus memalsukannya.

Zelda Williams, putri mendiang aktor Robin Williams, memiliki pesan pedih untuk para penggemar ayahnya.

“Tolong, berhenti mengirimiku video AI tentang Ayah. Berhentilah percaya aku ingin melihatnya atau aku akan mengerti. Aku tidak mau dan tidak akan melakukannya,” tulisnya dalam postingan di Instagram Story-nya pada hari Senin. “Kalau kamu punya kesopanan, berhentilah melakukan ini padanya dan padaku, bahkan pada semua orang, titik. Itu bodoh, buang-buang waktu dan tenaga, dan percayalah, BUKAN itu yang dia inginkan.”

Mungkin bukan suatu kebetulan bahwa Williams tergerak untuk memposting ini hanya beberapa hari setelah rilis model video Sora 2 OpenAI dan Sora aplikasi sosial, yang memberi pengguna kekuatan untuk menghasilkan yang sangat realistis deepfake dari diri mereka sendiriteman-temannya, dan karakter kartun tertentu.

Itu juga termasuk orang mati, yang tampaknya merupakan permainan yang adil tidak ilegal untuk mencemarkan nama baik almarhummenurut Pusat Hukum Pers Mahasiswa.

Sora tidak akan mengizinkan Anda membuat video orang yang masih hidup — kecuali video itu milik Anda sendiri, atau teman yang memberi Anda izin untuk menggunakan kemiripannya (atau “cameo”, sebagaimana OpenAI menyebutnya). Namun batasan ini tidak berlaku bagi orang mati, yang sebagian besar dapat dihasilkan tanpa hambatan. Aplikasi yang masih hanya tersedia melalui undangan ini telah dibanjiri dengan video tokoh sejarah seperti Martin Luther King, Jr., Franklin Delano Roosevelt, dan Richard Nixon, serta mendiang selebriti seperti Bob Ross, John Lennon, Alex Trebek, dan ya, Robin Williams.

Bagaimana OpenAI membatasi pembuatan video orang mati masih belum jelas. Sora 2, misalnya, tidak akan menghasilkan mantan Presiden Jimmy Carter, yang meninggal pada tahun 2024, atau Michael Jackson, yang meninggal pada tahun 2009, meskipun ia membuat video yang mirip dengan Robin Williams, yang meninggal pada tahun 2014, menurut pengujian TechCrunch. Dan meskipun fitur cameo OpenAI memungkinkan orang untuk mengatur instruksi tentang bagaimana mereka muncul dalam video, orang lain membuat video tersebut — pagar pembatas yang muncul sebagai respons terhadap video tersebut. kritik awal terhadap Sora — almarhum tidak mempunyai pendapat seperti itu. Saya berani bertaruh Richard Nixon akan berguling-guling di kuburnya jika dia bisa melihat deepfake yang saya buat tentang dia yang menganjurkan penghapusan polisi.

Deepfake dari Richard Nixon, John Lennon, Martin Luther King, Jr., dan Robin Williams
Deepfake dari Richard Nixon, John Lennon, Martin Luther King, Jr., dan Robin WilliamsKredit Gambar:Sora, tangkapan layar oleh TechCrunch

OpenAI tidak menanggapi permintaan komentar TechCrunch tentang diperbolehkannya memalsukan orang mati secara mendalam. Namun, ada kemungkinan bahwa memalsukan selebriti yang sudah meninggal seperti Williams termasuk dalam praktik yang dapat diterima oleh perusahaan; preseden hukum menunjukkan bahwa perusahaan kemungkinan besar tidak akan bertanggung jawab atas pencemaran nama baik almarhum.

acara Techcrunch

San Fransisco
|
27-29 Oktober 2025

“Menyaksikan warisan orang-orang nyata diringkas menjadi 'yang terlihat dan terdengar samar-samar seperti mereka jadi itu sudah cukup,' supaya orang lain bisa membuat video kotor TikTok yang mendalangi mereka adalah hal yang menjengkelkan,” tulis Williams.

Kritikus OpenAI menuduh perusahaan tersebut mengambil pendekatan yang cepat dan longgar terhadap isu-isu tersebutitulah sebabnya Sora dengan cepat dibanjiri klip AI dari karakter berhak cipta seperti Peter Griffin dan Pikachu setelah dirilis. CEO Sam Altman awalnya mengatakan bahwa studio dan agensi Hollywood harus secara eksplisit memilih untuk tidak ikut serta jika mereka tidak ingin IP mereka disertakan dalam video yang dibuat Sora. Motion Picture Association telah meminta OpenAI untuk mengambil tindakan terhadap masalah ini, menyatakan dalam sebuah pernyataan bahwa “undang-undang hak cipta yang sudah mapan melindungi hak-hak pencipta dan berlaku di sini.” Dia sudah melakukannya sejak itu mengatakan perusahaan akan membalikkan posisi ini.

Sora, mungkin, adalah model AI berkemampuan deepfake paling berbahaya yang dapat diakses oleh manusia sejauh ini, mengingat seberapa realistis keluarannya. Platform lain seperti xAI tertinggal, tetapi memiliki pagar pembatas yang lebih sedikit dibandingkan Sora, sehingga memungkinkan untuk menghasilkan pornografi deepfake dari orang sungguhan. Saat perusahaan lain mengejar OpenAI, kita akan menjadi preseden yang buruk jika kita memperlakukan orang sungguhan — hidup atau mati — seperti mainan pribadi kita sendiri.

Source

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button