Bandar Lampung (Lampost.co) — Nvidia kembali membuat langkah yang langsung jadi sorotan di industri komputasi AI. Tanpa mengubah arsitektur inti, perusahaan ini menaikkan kapasitas memori GPU RTX Pro 5000 Blackwell hingga 72 GB—lonjakan besar yang mengisyaratkan satu hal: kebutuhan AI kini makin “rakus” memori.
Pembaruan ini bukan sekadar angka di atas kertas. Di tengah ledakan penggunaan AI generatif, agentic AI, dan model bahasa besar, kapasitas VRAM justru menjadi pembeda utama antara workflow lancar dan sistem yang tersendat.
Kenapa Upgrade VRAM Ini Penting untuk AI Saat Ini
Selama setahun terakhir, beban kerja AI berkembang jauh lebih cepat dibanding generasi GPU sebelumnya. Model bahasa besar (LLM), pipeline generasi gambar, hingga simulasi kompleks menuntut ruang memori yang semakin luas agar proses inferensi dan training bisa berjalan tanpa bottleneck.
Dengan VRAM 72 GB, RTX Pro 5000 Blackwell kini berada di posisi strategis: tidak sekelas flagship ekstrem, tetapi cukup besar untuk menangani workflow AI profesional skala menengah hingga berat.
Spesifikasi Tetap, Tapi Kapasitas Memori Naik Drastis
Menariknya, Nvidia tidak mengubah spesifikasi inti GPU ini. Peningkatan murni terjadi pada sisi memori.
RTX Pro 5000 Blackwell 72 GB tetap mengandalkan:
-
GPU GB202
-
14.080 CUDA Cores
-
Performa AI hingga 2.142 TOPS
-
Antarmuka memori 384-bit
-
Bandwidth mencapai 1,34 TB/s
-
Konsumsi daya hingga 300 watt
-
Desain pendingin dual-slot air-cooled
Perbedaan krusialnya ada pada penggunaan 24 modul GDDR7, naik dari 16 modul di versi 48 GB. Meski kapasitas membengkak 50 persen, kecepatan memori tetap di angka 28 Gbps.
Lonjakan Performa Nyata di Dunia Profesional
Nvidia mengklaim peningkatan kapasitas VRAM ini langsung berdampak pada performa riil, khususnya di beban kerja AI dan rendering profesional.
Beberapa klaim performa yang disorot:
-
Hingga 3,5 kali lebih cepat untuk generasi gambar berbasis AI
-
Sekitar 2 kali lipat pada generasi teks
-
2,1 kali lebih kencang untuk inferensi LLM
-
Waktu rendering di aplikasi profesional bisa dipangkas hingga 4,7 kali
Bagi studio kreatif, peneliti AI, hingga pengembang sistem enterprise, ruang memori ekstra ini memungkinkan pemrosesan model besar tanpa harus memecah workload atau mengorbankan kualitas.
Sinyal Strategi Baru Nvidia di Era AI
Langkah Nvidia memperbarui GPU hanya dari sisi VRAM tergolong tidak biasa. Ini menjadi pembaruan memori pertama di lini RTX Pro Blackwell sejak seri tersebut diperkenalkan.
Strategi ini diyakini sebagai upaya memperkecil jarak antara segmen menengah dan kelas atas. Sebelumnya, RTX Pro 5000 berada di 48 GB, sementara model flagship RTX Pro 6000 langsung melompat ke 96 GB. Versi 72 GB kini mengisi celah tersebut dengan lebih logis.
Tak hanya itu, pola ini memunculkan spekulasi bahwa peningkatan VRAM serupa akan merambah segmen lain, termasuk GPU konsumen generasi berikutnya. Seiring AI semakin meresap ke berbagai industri, kapasitas memori berpotensi menjadi faktor penentu utama, bahkan melampaui kecepatan clock semata.
Sudah Tersedia, Harga Masih Misterius
RTX Pro 5000 Blackwell 72 GB dilaporkan sudah mulai tersedia melalui sejumlah mitra Nvidia. Namun hingga kini, banderol resmi belum diumumkan ke publik.
Yang jelas, dengan lonjakan kapasitas VRAM dan klaim performa signifikan, GPU ini diposisikan sebagai solusi serius untuk era AI modern—era di mana memori bukan lagi pelengkap, melainkan fondasi utama.








