Qualcomm mengumumkan chip AI untuk bersaing dengan AMD dan Nvidia

Qualcomm mengumumkan pada hari Senin bahwa mereka akan merilis yang baru kecerdasan buatan chip akselerator, menandai kompetisi baru untuk Nvidiayang sejauh ini mendominasi pasar semikonduktor AI.
Chip AI merupakan peralihan dari Qualcomm, yang sejauh ini berfokus pada semikonduktor untuk konektivitas nirkabel dan perangkat seluler, bukan pusat data besar.
Qualcomm mengatakan bahwa AI200, yang akan mulai dijual pada tahun 2026, dan AI250, yang direncanakan pada tahun 2027, dapat hadir dalam sistem yang memenuhi rak server berpendingin cairan yang penuh.
Qualcomm menyamai Nvidia dan AMDyang menawarkan unit pemrosesan grafis, atau GPU, dalam sistem rak penuh yang memungkinkan sebanyak 72 chip bertindak sebagai satu komputer. Laboratorium AI membutuhkan kekuatan komputasi untuk menjalankan model paling canggih.
Chip pusat data Qualcomm didasarkan pada bagian AI dalam chip ponsel cerdas Qualcomm yang disebut unit pemrosesan saraf Hexagon, atau NPU.
“Pertama-tama kami ingin membuktikan diri di domain lain, dan setelah kami membangun kekuatan kami di sana, cukup mudah bagi kami untuk naik ke level pusat data,” kata Durga Malladi, manajer umum Qualcomm untuk pusat data dan edge, saat dihubungi wartawan pekan lalu.
Masuknya Qualcomm ke dunia pusat data menandai persaingan baru di pasar teknologi dengan pertumbuhan tercepat: peralatan untuk server farm baru yang berfokus pada AI.
Hampir $6,7 triliun belanja modal akan dihabiskan untuk pusat data hingga tahun 2030, dengan sebagian besar disalurkan ke sistem berbasis chip AI, menurut perkiraan McKinsey.
Industri ini didominasi oleh Nvidia, yang GPU-nya menguasai lebih dari 90% pasar sejauh ini dan penjualannya telah mendorong perusahaan tersebut mencapai kapitalisasi pasar lebih dari $4,5 triliun. Chip Nvidia digunakan untuk melatih GPT OpenAI, model bahasa besar yang digunakan di ChatGPT.
Namun perusahaan seperti OpenAI telah mencari alternatif, dan awal bulan ini startup tersebut mengumumkan rencana untuk membeli keripik dari pembuat GPU peringkat kedua, AMD, dan berpotensi mengambil saham di perusahaan tersebut. Perusahaan lain, seperti Google, Amazon Dan Microsoftjuga mengembangkan akselerator AI mereka sendiri untuk layanan cloud mereka.
Qualcomm mengatakan chipnya berfokus pada inferensi, atau menjalankan model AI, alih-alih pelatihan, yang merupakan cara laboratorium seperti OpenAI menciptakan kemampuan AI baru dengan memproses data berukuran terabyte.
Pembuat chip tersebut mengatakan bahwa sistem skala raknya pada akhirnya akan lebih hemat biaya pengoperasiannya bagi pelanggan seperti penyedia layanan cloud, dan bahwa sebuah rak menggunakan 160 kilowatt, yaitu sebanding karena konsumsi daya yang tinggi dari beberapa rak GPU Nvidia.
Malladi mengatakan Qualcomm juga akan menjual chip AI dan suku cadang lainnya secara terpisah, terutama untuk klien seperti hyperscaler yang lebih suka mendesain raknya sendiri. Dia mengatakan perusahaan chip AI lainnya, seperti Nvidia atau AMD, bahkan bisa menjadi klien untuk beberapa bagian pusat data Qualcomm, seperti unit pemrosesan pusat atau CPU.
“Apa yang kami coba lakukan adalah memastikan bahwa pelanggan kami berada dalam posisi untuk mengambil semuanya atau berkata, 'Saya akan memadupadankan,'” kata Malladi.
Perusahaan menolak berkomentar, harga chip, kartu atau rak, dan berapa banyak NPU yang dapat dipasang dalam satu rak. Pada bulan Mei, Qualcomm mengumumkan kemitraan dengan Humain dari Arab Saudi untuk memasok pusat data di wilayah tersebut dengan chip inferensi AI, dan perusahaan tersebut akan menjadi pelanggan Qualcomm, yang berkomitmen untuk menerapkan sebanyak mungkin sistem yang dapat menggunakan daya sebesar 200 megawatt.
Qualcomm mengatakan chip AI-nya memiliki keunggulan dibandingkan akselerator lain dalam hal konsumsi daya, biaya kepemilikan, dan pendekatan baru dalam cara penanganan memori. Dikatakan bahwa kartu AI-nya mendukung memori 768 gigabyte, lebih tinggi dari penawaran dari Nvidia dan AMD.
Desain Qualcomm untuk server AI yang disebut AI200.
Qualcomm



