Para ilmuwan mengatakan mereka telah menghilangkan hambatan besar pada AI — sekarang mereka dapat memproses perhitungan 'dengan kecepatan cahaya'

Para ilmuwan telah mengembangkan arsitektur dasar untuk komputasi optik generasi mendatang – menggunakan cahaya, bukan listrik, untuk memberi daya pada chip – yang dapat merevolusi cara kerja komputasi optik. kecerdasan buatan (AI) model dilatih dan dieksekusi.
Inti dari model bahasa besar (LLM) dan yang didasarkan pada pembelajaran mendalam terdapat struktur organisasi berbobot yang disebut “tensor” yang berfungsi seperti lemari arsip dengan catatan tempel yang menunjukkan laci mana yang paling sering digunakan.
Saat model AI dilatih untuk melakukan tugas atau fungsi, seperti mengenali gambar atau memprediksi string teks, model tersebut akan mengurutkan data ke dalam tensor ini. Dalam sistem AI modern, kecepatan model dalam memproses data tensor — atau memilah-milah lemari arsip — merupakan hambatan kinerja mendasar yang mewakili batasan yang jelas mengenai seberapa besar suatu model dapat berkembang.
Dalam komputasi berbasis cahaya pada umumnya, model mengurai tensor dengan menembakkan rangkaian laser beberapa kali. Mereka berfungsi seperti mesin yang memindai kode batang pada suatu paket untuk menentukan isinya, kecuali dalam kasus ini, setiap wadah merujuk pada soal matematika. Jumlah kekuatan pemrosesan yang diperlukan untuk mengolah angka-angka ini disesuaikan dengan kemampuan bawaan model.
Meskipun komputasi berbasis cahaya lebih cepat dan hemat energi pada skala yang lebih kecil, sebagian besar sistem optik tidak dapat dijalankan secara paralel. Berbeda dengan unit pemrosesan grafis (GPU), yang dapat dirangkai bersama untuk meningkatkan jumlah dan ketersediaan daya pemrosesan secara eksponensial, sistem berbasis cahaya biasanya dijalankan secara linier. Oleh karena itu, sebagian besar pengembang menolak komputasi optik dan lebih memilih keunggulan pemrosesan paralel berupa peningkatan daya dalam skala besar.
Kemacetan penskalaan inilah yang menyebabkan model paling kuat yang dibuat oleh OpenAI, Anthropic, Google, dan xAI memerlukan ribuan GPU yang berjalan bersama-sama untuk berlatih dan beroperasi.
Namun arsitektur baru, yang disebut Parallel Optical Matrix-Matrix Multiplication (POMMM), dapat meniadakan masalah yang selama ini menghambat komputasi optik. Tidak seperti metode optik sebelumnya, metode ini melakukan beberapa operasi tensor secara bersamaan menggunakan satu ledakan laser.
Hasilnya adalah desain perangkat keras AI yang mendasar dengan potensi untuk meningkatkan kecepatan pemrosesan tensor sistem AI tertentu melampaui kemampuan perangkat keras elektronik yang canggih sekaligus mengurangi jejak energinya.
Komputasi optik generasi berikutnya dan perangkat keras AI
Studi tersebut diterbitkan pada 14 November di jurnal Fotonik Alammerinci hasil prototipe komputasi optik eksperimental bersama dengan serangkaian uji komparatif terhadap skema pemrosesan optik dan GPU standar.
Para ilmuwan menggunakan pengaturan khusus komponen perangkat keras optik konvensional bersama dengan metode pengkodean dan pemrosesan baru untuk menangkap dan mengurai paket tensor dalam satu tembakan laser.
Mereka berhasil mengkodekan data digital ke dalam amplitudo dan fase gelombang cahaya, mengubah data menjadi sifat fisik di bidang optik – dengan gelombang cahaya ini digabungkan untuk melakukan operasi matematika seperti perkalian matriks atau tensor.
Operasi optik ini tidak memerlukan daya tambahan untuk diproses dalam paradigma ini karena terjadi secara pasif saat cahaya merambat. Hal ini menghilangkan kebutuhan akan kontrol atau peralihan selama pemrosesan, serta daya yang diperlukan untuk menjalankan fungsi tersebut.
“Pendekatan ini dapat diterapkan pada hampir semua platform optik,” kata penulis utama studi tersebut, Zhipei Sun, pemimpin Grup Fotonik Universitas Aalto, dalam sebuah pernyataan. penyataan. “Di masa depan, kami berencana untuk mengintegrasikan kerangka komputasi ini langsung ke chip fotonik, memungkinkan prosesor berbasis ringan untuk melakukan tugas-tugas AI yang kompleks dengan konsumsi daya yang sangat rendah.”
Zhang memperkirakan pendekatan ini dapat diintegrasikan ke dalam platform AI utama dalam waktu tiga hingga lima tahun.
Akselerator kecerdasan umum buatan
Para perwakilan menggambarkan hal ini sebagai langkah menuju Artificial General Intelligence (AGI) generasi berikutnya – sebuah sistem AI hipotetis masa depan yang lebih pintar dari manusia dan dapat belajar secara umum di berbagai disiplin ilmu, terlepas dari data pelatihannya.
Zhang menambahkan dalam pernyataannya: “Ini akan menciptakan generasi baru sistem komputasi optik, yang secara signifikan mempercepat tugas-tugas AI yang kompleks di berbagai bidang.”
Meskipun makalah itu sendiri tidak secara spesifik menyebutkan AGI, makalah ini beberapa kali merujuk pada komputasi tujuan umum.
Gagasan bahwa meningkatkan teknik pengembangan AI saat ini adalah jalan yang layak untuk mencapai AGI begitu luas di kalangan sektor tertentu dalam komunitas ilmu komputer sehingga Anda dapat membeli kaos yang menyatakan bahwa “penskalaan adalah semua yang Anda butuhkan.”
Ilmuwan lain, seperti kepala ilmuwan AI Meta yang akan keluar Yann LeCuntidak setuju, dengan mengatakan bahwa LLM – arsitektur AI standar terbaik saat ini – tidak akan pernah mencapai status AGI terlepas dari seberapa jauh dan dalam skalanya.
Dengan POMMM, para ilmuwan mengatakan mereka mungkin memiliki bagian penting dari teka-teki perangkat keras yang diperlukan untuk menghilangkan salah satu hambatan terbesar di bidang ini, sehingga memungkinkan pengembang untuk melampaui batas dasar paradigma saat ini.



