Bandar Lampung, suma.id — NVIDIA kembali menunjukkan keunggulannya di ranah kecerdasan buatan (AI) dengan peluncuran arsitektur terbaru, Blackwell Ultra, pada ajang MLPerf Inference v5.1. Kompetisi ini merupakan tolok ukur industri untuk mengevaluasi performa teknologi AI, dan NVIDIA berhasil mencatatkan rekor baru dalam pengujian inferensi.
Sistem GB300 NVL72 yang menggunakan Blackwell Ultra menorehkan pencapaian luar biasa, terutama dalam menangani model bahasa besar (LLM) serta aplikasi AI generatif yang semakin kompleks. Hanya dalam waktu enam bulan sejak peluncuran generasi Blackwell sebelumnya, NVIDIA kembali membuktikan inovasinya yang cepat dan agresif.
Performa Unggul untuk Model Bahasa Besar
Model bahasa besar dengan parameter mencapai ratusan miliar kini menjadi tulang punggung aplikasi AI modern. Proses penalaran yang melibatkan banyak token sebelum menghasilkan output membutuhkan daya komputasi yang sangat tinggi. Blackwell Ultra hadir sebagai solusi dengan peningkatan teknologi yang signifikan.
Dalam pengujian MLPerf Inference v5.1, sejumlah skenario baru diuji, seperti DeepSeek-R1 dengan 671 miliar parameter, Llama 3.1 405B, Llama 3.1 8B, dan Whisper untuk pengenalan suara. Blackwell Ultra berhasil mencatatkan performa tertinggi per GPU di semua skenario tersebut, sekaligus mempertahankan dominasinya pada pengujian sebelumnya.
Peningkatan Performa Dibandingkan Generasi Sebelumnya
Dibandingkan dengan sistem GB200 NVL72, Blackwell Ultra menawarkan peningkatan performa per GPU hingga 45%. Jika dibandingkan dengan sistem berbasis arsitektur Hopper, throughput per GPU melonjak hingga 5 kali lipat. Peningkatan ini didukung oleh sejumlah inovasi teknologi, termasuk:
- 1,5x lebih tinggi dalam komputasi NVFP4 AI.
- 2x lebih tinggi dalam komputasi lapisan atensi.
- 1,5x kapasitas memori dengan teknologi HBM3e.
Selain itu, optimalisasi perangkat lunak memainkan peran besar. NVIDIA memanfaatkan teknik NVFP4 quantization untuk mengecilkan ukuran model tanpa mengorbankan akurasi, FP8 key-value cache untuk efisiensi memori, dan kombinasi expert parallelism serta data parallelism untuk mempercepat proses inferensi.
Inovasi untuk Efisiensi Tinggi
Fitur ADP Balance memastikan distribusi beban kerja antar-GPU lebih merata, sedangkan CUDA Graphs mengurangi overhead CPU, sehingga proses inferensi menjadi lebih cepat dan efisien.
Salah satu terobosan penting adalah penerapan disaggregated serving pada model Llama 3.1 405B. Dengan memisahkan fase context yang membutuhkan komputasi berat dari fase generation yang sensitif terhadap latensi ke GPU berbeda, performa per GPU meningkat hingga 1,5x dibandingkan metode konvensional. Secara keseluruhan, sistem Blackwell Ultra menawarkan performa hingga 5 kali lebih tinggi dibandingkan arsitektur Hopper.
NVIDIA juga memperkenalkan Rubin CPX, prosesor khusus yang dirancang untuk mempercepat pemrosesan konteks panjang pada model bahasa besar. Rubin CPX diharapkan menjadi fondasi bagi sistem AI generasi mendatang yang lebih cepat, efisien, dan cerdas.
Kesimpulan
Dengan kehadiran Blackwell Ultra dan Rubin CPX, NVIDIA semakin memantapkan posisinya sebagai pemimpin industri AI global. Rekor terbaru di MLPerf Inference v5.1 menegaskan bahwa kombinasi inovasi perangkat keras dan perangkat lunak mampu menghadirkan solusi AI yang lebih kuat, responsif, dan hemat energi.















