Bandar Lampung (Lampost.co) — Qualcomm Technologies resmi memperkenalkan AI200 dan AI250, dua akselerator terbaru yang dirancang khusus untuk data center generatif AI. Chip ini digadang-gadang akan mengubah peta performa AI di pusat data global. Mereka menjadikannya lebih efisien dalam daya dan biaya.
Performa Tinggi dan Efisiensi Maksimal
Chip Qualcomm AI200 dirancang sebagai solusi rack-level untuk menjalankan model AI skala besar. Ini termasuk large language model (LLM) dan model multimodal. Setiap kartu AI200 dibekali memori LPDDR hingga 768 GB, memberikan kapasitas besar untuk menangani beban kerja inferensi AI secara fleksibel dan efisien.
Qualcomm menegaskan, tujuannya adalah menghadirkan generative AI dengan kinerja tinggi dan biaya lebih hemat, sambil menjaga rasio terbaik antara performa, konsumsi daya, dan biaya per watt.
AI250 Hadir dengan Arsitektur Baru
Sementara itu, AI250 membawa inovasi baru lewat arsitektur near-memory computing. Teknologi ini memungkinkan bandwidth memori hingga 10 kali lebih tinggi dibanding generasi sebelumnya. Konsumsi daya juga jauh lebih rendah. Dengan begitu, AI250 mampu menjalankan AI inference secara terdistribusi (disaggregated inference) — memaksimalkan efisiensi perangkat keras tanpa mengorbankan performa.
Kedua solusi ini juga dilengkapi sistem pendingin cair langsung (direct liquid cooling) untuk efisiensi termal, serta dukungan PCIe dan Ethernet agar dapat diperluas dengan mudah sesuai kebutuhan pusat data berskala besar. Total konsumsi daya di tingkat rak mencapai 160 kW, menandakan performa kelas hyperscaler dengan fokus pada keberlanjutan dan optimalisasi operasional.
Integrasi Mudah dan Ekosistem Terbuka
Menurut SVP & GM Technology Planning, Edge Solutions & Data Center Qualcomm Technologies, Durga Malladi, solusi baru ini menghadirkan definisi baru dalam efisiensi AI. “Dengan AI200 dan AI250, kami mendefinisikan ulang potensi AI skala rak. Solusi ini memungkinkan pelanggan menjalankan generative AI dengan biaya total kepemilikan (TCO) terbaik. Ini dilakukan tanpa mengorbankan fleksibilitas dan keamanan,” ujar Malladi.
Qualcomm juga menghadirkan dukungan ekosistem terbuka dan perangkat lunak terpadu untuk memudahkan integrasi, manajemen, serta skalabilitas model AI yang telah dilatih sebelumnya. Platform ini mendukung berbagai kerangka AI populer. Ini memungkinkan deploy model hanya dengan satu klik, sehingga adopsi menjadi lebih cepat dan praktis.
Dukungan Software Lengkap dari Aplikasi hingga Sistem
Selain perangkat keras, Qualcomm menyertakan AI software stack kelas hyperscaler yang mendukung seluruh lapisan operasional — mulai dari aplikasi hingga sistem. Stack ini telah dioptimalkan untuk berbagai platform machine learning, generative AI, dan inference engine terkemuka.
Pengembang juga dapat dengan mudah mengintegrasikan model dari Hugging Face menggunakan Efficient Transformers Library dan AI Inference Suite milik Qualcomm. Kedua alat ini dirancang untuk mempercepat penerapan AI melalui aplikasi siap pakai, agen cerdas, dan API operasional.
Jadwal Rilis dan Komitmen Inovasi
Qualcomm berencana mulai memasarkan AI200 pada tahun 2026, disusul AI250 pada 2027. Perusahaan juga menegaskan akan terus merilis pembaruan produk pusat data setiap tahun. Fokusnya adalah pada peningkatan performa, efisiensi energi, serta inovasi berkelanjutan dalam AI inference.








