'Tidak ada yang mendorong jin itu kembali ke dalam botol': pembaca percaya sudah terlambat untuk menghentikan perkembangan AI

Haruskah umat manusia menarik rem kecerdasan buatan (AI) Sebelum membahayakan kelangsungan hidup kita? Karena teknologi terus mengubah industri dan kehidupan sehari-hari, opini publik terbagi tajam atas masa depannya, terutama sebagai prospek model AI yang dapat menandingi kecerdasan seperti manusia menjadi lebih layak.
Tapi apa yang kita lakukan ketika AI melampaui kecerdasan manusia? Para ahli menyebut momen ini keganjilanperistiwa hipotetis di mana teknologi melampaui Kecerdasan Umum Buatan (AGI) Untuk menjadi entitas yang pengawas yang dapat ditingkatkan secara rekursif dan luput dari kontrol manusia.
Sebagian besar pembaca di komentar percaya bahwa kita sudah terlalu jauh untuk berpikir tentang menunda lintasan menuju AI yang superintelligent. “Sudah terlambat, terima kasih Tuhan saya sudah tua dan tidak akan hidup untuk melihat hasil bencana ini,” Kate Sarginson menulis.
CECEsementara itu, menjawab: “[I] Pikirkan semua orang tahu tidak ada yang mendorong jin itu kembali ke dalam botol. “
Yang lain menganggap ketakutan AI berlebihan. Beberapa membandingkan keberatan tentang AI dengan ketakutan publik akan pergeseran teknologi masa lalu. “Untuk setiap teknologi baru dan yang muncul ada penentang, para kritikus dan seringkali crackpots. AI tidak berbeda,” Dari Pegg dikatakan.
Pandangan ini dibagikan oleh beberapa pengikut Instagram Live Science. “Apakah Anda percaya pertanyaan yang sama ini ditanyakan oleh banyak orang ketika listrik pertama kali muncul? Orang -orang sangat takut akan hal itu, dan membuat semua jenis prediksi yang mengerikan. Sebagian besar telah menjadi kenyataan,” Alexmermaid Tales menulis.
Yang lain menekankan kompleksitas masalah ini. “Ini adalah perlombaan senjata internasional dan pengetahuannya ada di luar sana. Tidak ada cara yang baik untuk menghentikannya. Tapi kita perlu berhati -hati bahkan dari AI hanya memadati kita (jutaan atau miliaran agen AI bisa menjadi risiko perpindahan besar -besaran bagi manusia bahkan jika AI tidak melampaui kecerdasan manusia atau mencapai AGI),” 3JARIONES3 menulis.
“Perlindungan diperlukan karena perusahaan seperti NVIDIA berupaya menggantikan semua tenaga kerja mereka dengan AI. Tetap saja, manfaat untuk sains, kesehatan, produksi pangan, perubahan iklim, teknologi, efisiensi dan target utama lainnya yang dibawa oleh AI dapat mengurangi beberapa masalah. Ini adalah pedang dua ganda dengan pembayaran potensial yang sangat tinggi tetapi bahkan uang risks yang lebih tinggi,” komentar berlanjut.
Satu komentar mengusulkan pendekatan peraturan daripada menghentikan AI sama sekali. Isopropil Disarankan: “Memberikan pajak berat pada LLM tertutup [Large Language Models]baik pelatihan dan inferensi, dan tidak ada klaim hak cipta atas output. Juga mengenakan pajak progresif pada pelatihan model yang lebih besar, penskalaan dengan kemudahan penyebaran perangkat keras konsumen, bukan HPC [High-Performance Computing]. “
Sebaliknya, mereka menyarankan LLM yang lebih kecil dan khusus dapat dikelola oleh konsumen sendiri, di luar kontrol perusahaan untuk “membantu [the] Publik yang lebih besar mengembangkan hubungan yang lebih sehat[s] ke AI. “
“Itu adalah beberapa ide bagus. Menggeser insentif dari mengejar AGI menjadi membuat apa yang sudah kita miliki lebih baik akan menjadi hebat,” 3JARIONES3 menanggapi.
Bagaimana menurutmu? Haruskah pengembangan AI mendorong ke depan? Bagikan tampilan Anda di komentar di bawah.