WEKA dan NVIDIA Perkenalkan Arsitektur DGX BasePOD Berkinerja Tinggi

Related Posts

NVIDIA Luncurkan Jetson Orin Nano Super: Performa AI Edge yang Revolusioner dengan Harga Terjangkau

NVIDIA secara resmi meluncurkan Jetson Orin Nano Super Developer...

ClickHouse Akuisisi PeerDB: Meningkatkan Kecepatan dan Efisiensi Analitik Data Real-Time

ClickHouse, penyedia database analitik real-time yang terkenal dengan kinerja...

Nvidia Perkenalkan Supermodel: Inovasi AI dengan Llama 3.1 dan Nemotron

Nvidia kembali mengguncang dunia kecerdasan buatan dengan memperkenalkan konsep...

Mengoptimalkan Kinerja Data Warehouse melalui Praktik Data Governance yang Efektif

Organisasi saat ini sangat bergantung pada data warehouse dan...

OpenAI, NVIDIA dan Hugging Face Luncurkan Small Language Models (SLMs): Era Baru Industri AI

Tiga perusahaan besar di bidang kecerdasan buatan (AI) baru...
- Advertisement -spot_img

Share This Post

WekaIO (WEKA) baru saja mengumumkan bahwa mereka telah berhasil memperoleh sertifikasi untuk arsitektur referensi NVIDIA DGX BasePOD. Arsitektur ini dibangun berdasarkan sistem NVIDIA DGX H100 dan WEKA Data Platform. Arsitektur yang padat dalam hal penggunaan ruang rak ini mampu menyediakan throughput penyimpanan data yang besar, dimulai dari 600GB/s dan 22M IOPs, hanya dalam 8 unit rak. Hal ini dioptimalkan khusus untuk meningkatkan performa sistem DGX H100.

WEKA Data Platform menyediakan infrastruktur data critical yang sangat dibutuhkan untuk mendukung beban kerja generasi selanjutnya yang memerlukan performa tinggi. Ini termasuk pelatihan dan inferensi model generatif AI dalam skala besar. Arsitektur berbasis perangkat lunak yang maju ini mengubah silo penyimpanan data yang stagnan menjadi pipeline data yang dinamis. Ini membantu menyuplai data dengan lebih efisien ke GPU yang kekurangan data dan mendukung beban kerja AI di berbagai lokasi, baik on-premises, cloud, edge, maupun dalam lingkungan hybrid dan multicloud.

DGX BasePOD, dengan desain modularnya, menawarkan fleksibilitas yang dibutuhkan untuk menyesuaikan sumber daya sesuai dengan kebutuhan komputasi yang terus berkembang. Ini memberikan efisiensi biaya dan kemudahan dalam manajemen. Integrasi GPU NVIDIA H100 Tensor Core dan teknologi jaringan NVIDIA InfiniBand meningkatkan performa untuk berbagai beban kerja AI, mempercepat pelatihan dan penerapan model. DGX BasePOD dirancang dengan fokus pada agilitas, efisiensi, dan performa, menjadikannya solusi yang robust bagi organisasi yang ingin mengoptimalkan investasi infrastruktur data mereka sekaligus mendorong batas-batas inovasi AI.

Solusi arsitektur referensi WEKA dengan NVIDIA DGX BasePOD memberikan kinerja yang diperlukan pelanggan untuk mempercepat adopsi AI serta mencapai wawasan, penemuan, dan hasil yang lebih cepat secara efisien.

Manfaat utama dari arsitektur referensi WEKA dengan NVIDIA DGX BasePOD yang baru termasuk:

  1. Kinerja Ekstrem untuk Beban Kerja AI yang Paling Menuntut: Menyediakan bandwidth 10 kali lebih besar dan 6 kali lebih banyak IOPs dibandingkan konfigurasi WEKA dengan NVIDIA DGX BasePOD sebelumnya berdasarkan sistem NVIDIA DGX A100.
  2. Komputasi Terbaik: Sistem NVIDIA DGX menampilkan prosesor Intel Xeon yang kuat, NIC NVIDIA ConnectX-7, switch InfiniBand NVIDIA Quantum-2, dan switch Ethernet NVIDIA Spectrum.
  3. Efisiensi Optimal: Konfigurasi yang padat di rak ini memberikan performa yang dibutuhkan untuk memenuhi kebutuhan hingga 16 sistem DGX H100 dalam bentuk yang hemat ruang dan energi. Diharapkan dapat mendukung cluster yang lebih besar hingga 32 sistem DGX H100 atau lebih.
  4. Skalabilitas Linier yang Luar Biasa: Berdasarkan hasil pengujian validasi NVIDIA untuk berbagai beban kerja AI/ML yang menuntut, integrasi WEKA dengan arsitektur DGX BasePOD memungkinkan organisasi untuk memulai dari skala kecil dan kemudian meningkatkan sumber daya komputasi dan penyimpanan dari satu DGX ke konfigurasi multi-rak dengan performa yang dapat diprediksi, secara fleksibel memenuhi persyaratan beban kerja.
  5. Pilihan dan Fleksibilitas Turnkey: Pelanggan dapat menggunakan perangkat lunak WEKA Data Platform dengan DGX BasePOD, yang ditenagai oleh sistem DGX terbaru, untuk mendorong teknologi dan memperoleh keunggulan dalam memasuki pasar.

Sertifikasi DGX BasePOD oleh WEKA merupakan langkah maju dalam perjalanan mereka menuju sertifikasi DGX SuperPOD. WEKA termasuk salah satu perusahaan pertama yang menerapkan, memenuhi syarat, dan menggunakan NVIDIA GPUDirect Storage (GDS). Mereka juga salah satu penyimpan data bersertifikat DGX BasePOD pertama pada tahun 2021, dan telah membantu NVIDIA dalam mengembangkan arsitektur jaringannya untuk memperluas cakupan pelanggan.

“WEKA sangat bangga telah mencapai tonggak penting ini bersama NVIDIA. Dengan penyelesaian sertifikasi DGX BasePOD kami, sertifikasi DGX SuperPOD kami kini sedang berlangsung,” ujar Nilesh Patel, kepala petugas produk di WEKA. “Ini akan membuka opsi penyebaran baru yang menarik bagi pelanggan WEKA Data Platform. Nantikan perkembangannya.”

“Perusahaan di seluruh dunia sedang giat menggunakan AI untuk meingkatkan pengalaman pelanggan dan hasil bisnis yang lebih baik,” kata Tony Paikeday, direktur senior sistem AI di NVIDIA. “Dengan sertifikasi NVIDIA DGX BasePOD, WEKA siap membantu perusahaan-perusahaan ini dalam memajukan proyek AI mereka. Dengan infrastruktur yang telah dioptimalkan untuk kinerja tinggi, WEKA memungkinkan perolehan wawasan berbasis data dengan lebih cepat dan efektif.”

Kesimpulan

WekaIO (WEKA) telah mencapai tonggak penting dalam evolusi infrastruktur AI dengan memperoleh sertifikasi untuk arsitektur referensi NVIDIA DGX BasePOD. Arsitektur ini, yang dibangun pada sistem NVIDIA DGX H100 dan WEKA Data Platform, menawarkan solusi penyimpanan data berkinerja tinggi dan efisien ruang, dengan throughput hingga 600GB/s dan 22M IOPs dalam 8 unit rak. Solusi ini sangat mendukung beban kerja AI generasi berikutnya, termasuk pelatihan dan inferensi model AI generatif dalam skala besar.

DGX BasePOD menawarkan fleksibilitas, efisiensi, dan skalabilitas yang luar biasa, yang diperlukan dalam lingkungan yang memerlukan penyesuaian sumber daya sesuai dengan kebutuhan komputasi yang terus berkembang. Sertifikasi ini bukan hanya peningkatan untuk infrastruktur WEKA, tapi juga langkah maju menuju sertifikasi DGX SuperPOD, menandai WEKA sebagai pemimpin dalam penyediaan solusi penyimpanan data untuk AI dan komputasi berkinerja tinggi.


Glosarium

  • AI (Artificial Intelligence) / Kecerdasan Buatan: Teknologi yang memungkinkan komputer untuk meniru kecerdasan manusia, termasuk pembelajaran, pemecahan masalah, dan pengambilan keputusan.
  • Bandwidth: Ukuran jumlah data yang dapat ditransfer melalui koneksi jaringan dalam waktu tertentu, biasanya diukur dalam bits per detik (bps).
  • Cloud Computing: Penggunaan sumber daya komputasi (seperti server, penyimpanan, dan aplikasi) melalui jaringan internet, seringkali disediakan oleh pihak ketiga.
  • DGX H100: Sistem komputasi tingkat tinggi dari NVIDIA, dirancang khusus untuk aplikasi AI dan deep learning.
  • GPU (Graphics Processing Unit): Prosesor khusus yang dioptimalkan untuk tugas-tugas grafis dan komputasi paralel, sering digunakan dalam pelatihan model AI.
  • Hybrid dan Multicloud: Model komputasi cloud yang menggabungkan penggunaan cloud pribadi (on-premises) dengan satu atau lebih layanan cloud publik.
  • IOPs (Input/Output Operations Per Second): Metrik yang mengukur jumlah operasi baca/tulis per detik yang dapat dilakukan oleh perangkat penyimpanan data.
  • NIC (Network Interface Card): Kartu atau perangkat keras yang memungkinkan komputer berkomunikasi melalui jaringan.
  • NVIDIA InfiniBand: Teknologi jaringan yang menyediakan kecepatan transfer data tinggi dan latensi rendah, sering digunakan dalam komputasi performa tinggi.
  • Rack Unit (U): Ukuran standar untuk menentukan ketinggian peralatan di rack server, di mana 1U setara dengan 1.75 inci.
  • Tensor Core: Jenis inti pemrosesan dalam GPU NVIDIA yang dioptimalkan untuk operasi matriks, sangat penting dalam komputasi AI dan deep learning.