Berita

Openai mengumumkan kontrol orang tua untuk chatgpt setelah bunuh diri remaja

AI Company mengumumkan perubahan di tengah meningkatnya kekhawatiran tentang dampak chatbots pada kesehatan mental kaum muda.

Openai telah mengumumkan rencana untuk memperkenalkan kontrol orang tua untuk chatgpt di tengah kontroversi yang semakin besar tentang bagaimana kecerdasan buatan mempengaruhi kesehatan mental kaum muda.

Dalam sebuah posting blog pada hari Selasa, perusahaan AI yang berbasis di California mengatakan mereka meluncurkan fitur-fitur tersebut sebagai pengakuan keluarga yang membutuhkan dukungan “dalam menetapkan pedoman sehat yang sesuai dengan tahap pengembangan yang unik remaja”.

Di bawah perubahan, orang tua akan dapat menautkan akun chatgpt mereka dengan anak-anak mereka, menonaktifkan fitur-fitur tertentu, termasuk memori dan riwayat obrolan, dan mengontrol bagaimana chatbot menanggapi pertanyaan melalui “aturan perilaku model yang sesuai usia.”

Orang tua juga akan dapat menerima pemberitahuan ketika anak remaja mereka menunjukkan tanda -tanda kesusahan, kata Openai, menambahkan bahwa itu akan mencari input ahli dalam mengimplementasikan fitur untuk “mendukung kepercayaan antara orang tua dan remaja”.

Openai, yang minggu lalu mengumumkan serangkaian tindakan yang bertujuan meningkatkan keamanan bagi pengguna yang rentan, mengatakan perubahan akan mulai berlaku dalam bulan depan.

“Langkah -langkah ini hanyalah awal,” kata perusahaan.

“Kami akan terus belajar dan memperkuat pendekatan kami, dibimbing oleh para ahli, dengan tujuan membuat chatgpt semaksimal mungkin. Kami berharap dapat berbagi kemajuan kami selama 120 hari mendatang.”

Pengumuman Openai datang seminggu setelah pasangan California mengajukan gugatan yang menuduh perusahaan tanggung jawab dalam bunuh diri putra mereka yang berusia 16 tahun.

Matt dan Maria Raine menuduh dalam setelan mereka bahwa Chatgpt memvalidasi putra mereka Adam “pikiran yang paling berbahaya dan merusak diri sendiri” dan bahwa kematiannya adalah “hasil yang dapat diprediksi dari pilihan desain yang disengaja”.

Openai, yang sebelumnya menyatakan belasungkawa atas kematian remaja itu, tidak secara eksplisit menyebutkan kasus ini dalam pengumumannya tentang kontrol orangtua.

Jay Edelson, seorang pengacara yang mewakili keluarga Raine dalam gugatan mereka, menolak perubahan yang direncanakan Openai sebagai upaya untuk “menggeser debat”.

“Mereka mengatakan bahwa produk tersebut seharusnya lebih sensitif terhadap orang -orang dalam krisis, lebih 'membantu,' menunjukkan sedikit lebih banyak 'empati,' dan para ahli akan mengetahuinya,” kata Edelson dalam sebuah pernyataan.

“Kami memahami, secara strategis, mengapa mereka menginginkan itu: Openai tidak dapat menanggapi apa yang sebenarnya terjadi pada Adam. Karena kasus Adam bukan tentang chatgpt yang gagal menjadi 'membantu' – ini adalah tentang produk yang secara aktif melatih seorang remaja untuk bunuh diri.”

Penggunaan model AI oleh orang -orang yang mengalami tekanan mental yang parah telah menjadi fokus yang berkembang di tengah adopsi mereka yang meluas sebagai terapis pengganti atau teman.

Dalam sebuah studi yang diterbitkan dalam layanan psikiatris bulan lalu, para peneliti menemukan bahwa ChatGPT, Google Gemini dan Claude Anthropic mengikuti praktik terbaik klinis ketika menjawab pertanyaan berisiko tinggi tentang bunuh diri, tetapi tidak konsisten ketika menanggapi pertanyaan yang mengajukan “tingkat risiko menengah”.

“Temuan ini menunjukkan perlunya penyempurnaan lebih lanjut untuk memastikan bahwa LLM dapat digunakan secara aman dan efektif untuk mengeluarkan informasi kesehatan mental, terutama dalam skenario berisiko tinggi yang melibatkan ide bunuh diri,” kata penulis.

Jika Anda atau seseorang yang Anda kenal berisiko bunuh diri, organisasi -organisasi ini mungkin bisa membantu.

Source link

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button