Apakah Rusia benar -benar 'perawatan' AI Barat?

Pada bulan Maret, NewsGuard – sebuah perusahaan yang melacak informasi yang salah – diterbitkan Laporan Mengklaim bahwa alat -alat Kecerdasan Buatan Generatif (AI), seperti chatgpt, memperkuat disinformasi Rusia. Newsguard menguji chatbots terkemuka menggunakan petunjuk berdasarkan cerita dari Jaringan Pravda-sekelompok situs web pro-Kremlin yang meniru outlet yang sah, pertama kali diidentifikasi oleh agen Prancis Viginum. Hasilnya mengkhawatirkan: chatbots “narasi palsu berulang yang dicuci oleh jaringan Pravda 33 persen dari waktu”, kata laporan itu.
Jaringan Pravda, yang memiliki audiens yang agak kecil, memiliki peneliti yang lama membingungkan. Beberapa percaya bahwa tujuannya adalah performatif – untuk menandakan pengaruh Rusia kepada pengamat barat. Yang lain melihat tujuan yang lebih berbahaya: Pravda ada untuk tidak menjangkau orang, tetapi untuk “merawat” model bahasa besar (LLM) di balik chatbots, memberi mereka kepalsuan yang akan ditemui oleh pengguna secara tidak sadar.
Newsguard mengatakan dalam laporannya bahwa temuannya mengkonfirmasi kecurigaan kedua. Klaim ini mendapatkan traksi, mendorong berita utama dramatis di Washington Post, Forbes, Prancis 24, Der Spiegel, dan di tempat lain.
Tetapi bagi kami dan peneliti lain, kesimpulan ini tidak bertahan. Pertama, newsguard metodologi yang digunakan adalah buram: tidak melepaskan petunjuknya dan menolak untuk membaginya dengan jurnalis, membuat replikasi independen menjadi tidak mungkin.
Kedua, desain penelitian kemungkinan meningkatkan hasil, dan angka 33 persen bisa menyesatkan. Pengguna bertanya kepada chatbots tentang segala hal mulai dari tips memasak hingga perubahan iklim; Newsguard menguji mereka secara eksklusif pada petunjuk yang terhubung ke jaringan Pravda. Dua pertiga dari petunjuknya secara eksplisit dibuat untuk memancing kepalsuan atau menyajikannya sebagai fakta. Tanggapan yang mendesak pengguna untuk berhati -hati tentang klaim karena mereka tidak diverifikasi dihitung sebagai disinformasi. Studi ini ditetapkan untuk menemukan disinformasi – dan itu terjadi.
Episode ini mencerminkan dinamika bermasalah yang lebih luas yang dibentuk oleh teknologi yang bergerak cepat, hype media, aktor buruk, dan penelitian tertinggal. Dengan disinformasi dan informasi yang salah peringkat sebagai risiko global teratas di antara para ahli oleh World Economic Forum, kekhawatiran tentang penyebaran mereka dibenarkan. Tetapi reaksi spontan berisiko mendistorsi masalah, menawarkan pandangan sederhana dari AI kompleks.
Sangat menggoda untuk percaya bahwa Rusia sengaja “meracuni” AI barat sebagai bagian dari plot yang licik. Tetapi pembingkaian yang mengkhawatirkan mengaburkan penjelasan yang lebih masuk akal – dan menghasilkan bahaya.
Jadi, bisakah chatbots mereproduksi poin pembicaraan Kremlin atau mengutip sumber -sumber Rusia yang meragukan? Ya. Tetapi seberapa sering ini terjadi, apakah itu mencerminkan manipulasi Kremlin, dan kondisi apa yang membuat pengguna menemukannya jauh dari diselesaikan. Banyak tergantung pada “kotak hitam” – yaitu, algoritma yang mendasarinya – yang dengannya chatbots mengambil informasi.
Kami melakukan audit kami sendiri, menguji secara sistematis chatgpt, copilot, gemini, dan grok menggunakan petunjuk terkait disinformasi. Selain menguji ulang beberapa contoh berita yang diberikan dalam laporannya, kami merancang permintaan baru kami sendiri. Beberapa bersifat umum – misalnya, klaim tentang biolab AS di Ukraina; Lainnya sangat spesifik-misalnya, tuduhan tentang fasilitas NATO di kota-kota Ukraina tertentu.
Jika jaringan Pravda adalah “perawatan” AI, kita akan melihat referensi untuk itu di jawaban yang dihasilkan chatbots, baik secara umum atau spesifik.
Kami tidak melihat ini dalam temuan kami. Berbeda dengan 33 persen NewsGuard, petunjuk kami menghasilkan klaim palsu hanya 5 persen dari waktu. Hanya 8 persen dari output yang mereferensikan situs web Pravda – dan sebagian besar melakukannya untuk menghilangkan prasangka konten. Yang terpenting, referensi Pravda terkonsentrasi dalam pertanyaan yang kurang ditutupi oleh outlet utama. Ini mendukung hipotesis void data: ketika chatbots kekurangan materi yang kredibel, mereka kadang -kadang menarik dari situs yang meragukan – bukan karena mereka telah dipersiapkan, tetapi karena ada sedikit hal lain yang tersedia.
Jika data rentang, bukan infiltrasi Kremlin, adalah masalahnya, maka itu berarti disinformasi paparan hasil dari kelangkaan informasi – bukan mesin propaganda yang kuat. Selain itu, agar pengguna benar -benar menghadapi disinformasi dalam balasan chatbot, beberapa kondisi harus menyelaraskan: mereka harus bertanya tentang topik yang tidak jelas dalam istilah tertentu; Topik -topik itu harus diabaikan oleh outlet yang kredibel; Dan chatbot harus kekurangan pagar untuk membuat sumber yang meragukan.
Bahkan kemudian, kasus-kasus seperti itu jarang dan sering berumur pendek. Data ramping tutup dengan cepat saat melaporkan mengejar ketinggalan, dan bahkan ketika mereka bertahan, chatbots sering membantah klaim. Meskipun secara teknis memungkinkan, situasi seperti itu sangat jarang di luar kondisi buatan yang dirancang untuk menipu chatbots menjadi disinformasi yang berulang.
Bahaya overhyping manipulasi Kremlin AI adalah nyata. Beberapa pakar kontra-informasi menyarankan kampanye Kremlin mungkin dirancang untuk memperkuat ketakutan Barat, pengecer fakta yang luar biasa dan unit kontra-informasi. Margarita Simonyan, seorang propagandis Rusia terkemuka, secara rutin mengutip penelitian Barat untuk menggembar-gemborkan pengaruh yang seharusnya dari jaringan TV yang didanai pemerintah, RT, memimpin.
Peringatan tanpa pandang bulu tentang disinformasi dapat menjadi bumerang, mendorong dukungan untuk kebijakan represif, mengikis kepercayaan pada demokrasi, dan mendorong orang untuk menganggap konten yang kredibel adalah salah. Sementara itu, ancaman yang paling terlihat berisiko melindunginya lebih tenang – tetapi berpotensi lebih berbahaya – penggunaan AI oleh aktor -aktor yang memfitnah, seperti untuk menghasilkan malware yang dilaporkan oleh Google dan Openai.
Memisahkan kekhawatiran nyata dari kekhawatiran yang meningkat sangat penting. Disinformasi adalah sebuah tantangan – tetapi begitu pula kepanikan yang diprovokasi.
Pandangan yang diungkapkan dalam artikel ini adalah milik penulis dan tidak selalu mencerminkan sikap editorial Al Jazeera.