Para ilmuwan baru saja mengembangkan AI baru yang dimodelkan di otak manusia – ini mengungguli LLMS seperti chatgpt dalam tugas penalaran

Para ilmuwan telah mengembangkan jenis baru kecerdasan buatan Model (AI) yang dapat bernalar secara berbeda dari sebagian besar model bahasa besar (LLM) seperti chatgpt, menghasilkan kinerja yang jauh lebih baik dalam tolok ukur utama.
Alasan baru AI, yang disebut model penalaran hierarkis (HRM), terinspirasi oleh pemrosesan hierarkis dan multi-waktu Di otak manusia – cara daerah otak yang berbeda mengintegrasikan informasi tentang berbagai durasi (dari milidetik hingga menit).
Para ilmuwan di Sapient, sebuah perusahaan AI di Singapura, mengatakan model penalaran ini dapat mencapai kinerja yang lebih baik dan dapat bekerja lebih efisien. Ini berkat model yang membutuhkan lebih sedikit parameter dan contoh pelatihan.
Model HRM memiliki 27 juta parameter saat menggunakan 1.000 sampel pelatihan, para ilmuwan mengatakan dalam sebuah studi yang diunggah 26 Juni ke pracetak arxiv Database (yang belum ditinjau peer-review). Sebagai perbandingan, sebagian besar LLM canggih memiliki miliaran atau bahkan triliunan parameter. Meskipun angka yang tepat belum dipublikasikan, beberapa perkiraan Sarankan bahwa GPT-5 yang baru dirilis memiliki antara 3 triliun dan 5 triliun parameter.
Cara berpikir baru untuk AI
Ketika para peneliti menguji HRM di Benchmark busur-agi – Pemeriksaan yang sangat sulit yang bertujuan untuk menguji seberapa dekat model untuk mencapai Kecerdasan Umum Buatan (AGI) – Sistem mencapai hasil yang mengesankan, menurut penelitian.
HRM mencetak 40,3% di ARC-AGI-1, dibandingkan dengan 34,5% untuk O3-Mini-tinggi Openai, 21,2% untuk Claude Antropik 3,7 dan 15,8% untuk Deepseek R1. Dalam tes ARC-AGI-2 yang lebih keras, HRM mencetak 5% versus 3% O3-Mini-tinggi, Deepseek R1 1,3% dan Claude 3,7 0,9%.
LLM paling canggih menggunakan penalaran rantai-pemikiran (COT), di mana masalah kompleks dipecah menjadi beberapa langkah perantara yang jauh lebih sederhana yang diekspresikan dalam bahasa alami. Ini meniru proses pemikiran manusia dengan memecah masalah yang rumit menjadi potongan -potongan yang dapat dicerna.
Tetapi para ilmuwan Sapient berpendapat dalam penelitian ini bahwa COT memiliki kekurangan utama – yaitu “dekomposisi tugas yang rapuh, persyaratan data yang luas, dan latensi tinggi.”
Sebaliknya, HRM menjalankan tugas penalaran berurutan dalam satu pass maju, tanpa pengawasan eksplisit dari langkah -langkah perantara, melalui dua modul. Satu modul tingkat tinggi bertanggung jawab untuk perencanaan abstrak yang lambat, sementara modul tingkat rendah menangani perhitungan yang cepat dan terperinci. Ini mirip dengan cara di mana Otak manusia memproses informasi di berbagai daerah.
Ini beroperasi dengan menerapkan penyempurnaan berulang – teknik komputasi yang meningkatkan keakuratan solusi dengan berulang kali menyempurnakan perkiraan awal – lebih dari beberapa semburan “pemikiran” singkat. Setiap semburan mempertimbangkan apakah proses berpikir harus dilanjutkan atau diserahkan sebagai jawaban “final” untuk prompt awal.
HRM mencapai kinerja yang hampir sempurna pada tugas-tugas yang menantang seperti teka-teki Sudoku yang kompleks-yang tidak dapat dicapai oleh LLM konvensional-serta unggul dalam pencarian jalur yang optimal di labirin.
Makalah ini belum ditinjau oleh peer-review, tetapi penyelenggara tolok ukur busur-agi berusaha untuk menciptakan kembali hasilnya setelah para ilmuwan penelitian open-source model mereka di github.
Meskipun mereka mereproduksi angka, perwakilan mengatakan dalam a Posting Blogmereka membuat beberapa temuan mengejutkan, termasuk bahwa arsitektur hierarkis memiliki dampak kinerja minimal-sebaliknya, ada proses penyempurnaan yang kurang terdokumentasi selama pelatihan yang mendorong keuntungan kinerja yang substansial.