Nvidia kembali mengguncang dunia kecerdasan buatan dengan memperkenalkan konsep “supermodel” yang revolusioner. Pengumuman baru-baru ini mengenai penggunaan model AI Llama 3.1 yang dikembangkan oleh Meta, dengan 405 miliar parameter, yang diintegrasikan dengan model proprietary Nvidia, Nemotron, menandai langkah besar dalam pengembangan AI. Kombinasi ini menghasilkan model AI yang sangat canggih dan disesuaikan dengan kebutuhan spesifik pelanggan.
Konsep Supermodel
Istilah “supermodel” dalam konteks Nvidia merujuk pada pembuatan model AI yang sangat personal dan disesuaikan dengan kebutuhan pengguna. Proses ini melibatkan penggunaan beberapa Large Language Models (LLM), teknik fine-tuning, guardrails, dan adapters. Dengan pendekatan ini, Nvidia berusaha menggeser dari model AI konvensional yang bersifat “satu untuk semua” menuju solusi yang lebih disesuaikan dan spesifik untuk tiap pengguna.
Simbiotik Model: Llama 3.1 dan Nemotron
Inti dari inovasi ini adalah interaksi yang simbiotik antara Llama 3.1 dan Nemotron. Llama 3.1 berfungsi sebagai model generatif utama, yang menghasilkan output berdasarkan data yang diproses. Nemotron kemudian memeriksa dan menyempurnakan output tersebut untuk memastikan kualitas dan relevansi sebelum disampaikan kepada pengguna akhir. Proses ini saling melengkapi, di mana Llama 3.1 menghasilkan ide-ide awal yang kemudian diperiksa dan ditingkatkan oleh Nemotron. Hasilnya adalah model AI dengan akurasi dan keandalan yang jauh lebih tinggi.
“Kamu bisa menggunakan kedua model itu bersama untuk membuat data sintetis. Jadi buat data sintetis, dan model reward mengatakan ya, itu data bagus atau tidak,” jelas Kari Briski, Wakil Presiden Nvidia, selama konferensi pers. Siklus generasi dan validasi data sintetis ini merupakan kunci untuk meningkatkan ketepatan output AI.
Peningkatan Akurasi dengan Tools Komprehensif
Nvidia tidak hanya berhenti pada penggabungan model. Perusahaan ini menawarkan rangkaian tools yang luas yang dirancang untuk mengoptimalkan dan menyempurnakan model lebih lanjut. Salah satu tools utama yang ditawarkan adalah Nvidia Inference Microservices (NIMs). NIMs adalah container yang dapat diunduh yang memfasilitasi interaksi AI bagi pelanggan, memungkinkan pengembang untuk fine-tuning model Llama 3.1 dengan adapters khusus menggunakan data lokal.
Guardrails seperti LlamaGuard atau NeMo Guardrails juga diintegrasikan untuk memastikan bahwa respons AI tetap relevan dan akurat secara kontekstual. “Kami melihat peningkatan hampir 10 poin dalam akurasi hanya dengan menyesuaikan model,” kata Briski, menekankan dampak signifikan dari solusi AI yang dipersonalisasi ini.
Nvidia juga menambahkan lebih banyak fitur tambahan untuk menjadikan supermodel lebih baik. Bagian belakang AI factory mencakup banyak tools yang dapat dipadukan untuk menciptakan model yang terasah dengan baik, menyediakan respons yang lebih cepat, dan penggunaan sumber daya komputasi yang lebih efisien.
Ekosistem AI Factory
Selain itu, Nvidia memperkenalkan NIM factory, sub-factory dalam ekosistem AI factory mereka, yang menyediakan tools dan infrastruktur yang diperlukan bagi perusahaan untuk membangun dan menyempurnakan model AI mereka sendiri. Inisiatif ini merupakan bagian dari strategi Nvidia yang lebih luas untuk bermitra dengan penyedia cloud, memungkinkan ekosistem kolaboratif untuk kemajuan AI.
Proses pembuatan supermodel AI adalah proses yang rumit. Pertama, pengguna perlu menentukan bahan-bahan, yang bisa meliputi Llama 3.1 dengan adapters untuk menarik data mereka sendiri ke dalam inferensi AI. Pelanggan dapat menambahkan guardrails seperti LlamaGuard atau NeMo Guardrails untuk memastikan jawaban chatbot tetap relevan. Dalam banyak kasus, sistem RAG dan adapters LoRA membantu menyesuaikan model untuk menghasilkan hasil yang lebih akurat.
Model ini juga melibatkan ekstraksi dan pengiriman data relevan ke basis data vektor di mana informasi dievaluasi, dan respons dialirkan ke pengguna. Perusahaan umumnya memiliki informasi tersebut dalam basis data, dan Nvidia menyediakan plugin yang dapat menginterpretasikan data yang tersimpan untuk penggunaan AI.
Integrasi Teknologi Open Source
Integrasi Llama 3.1 ke dalam ekosistem proprietary Nvidia mencerminkan pendekatan perusahaan untuk menggabungkan teknologi open source dengan solusi perangkat keras dan perangkat lunak canggihnya. Seperti halnya Linux, perusahaan mengambil model open source, menyesuaikannya untuk dioptimalkan dengan GPU mereka, dan kemudian menghubungkannya dengan teknologi proprietary mereka, termasuk GPU dan CUDA.
Dukungan untuk Llama 3.1 menunjukkan bagaimana perusahaan akan mengintegrasikan teknologi open source ke dalam penawaran AI miliknya. Nvidia bekerja sama dengan banyak penyedia cloud untuk menawarkan layanan ini. Perusahaan juga sedang membangun sub-factory dalam AI factory-nya, yang disebut NIM factory, yang menyediakan tools bagi perusahaan untuk membangun model dan infrastruktur AI mereka sendiri.
Kesimpulan
Dengan pengenalan supermodel yang menggabungkan Llama 3.1 dan Nemotron, Nvidia menunjukkan komitmennya untuk mendorong batasan kecerdasan buatan. Melalui pendekatan yang personal dan penggunaan teknologi canggih, Nvidia menawarkan solusi AI yang lebih akurat dan relevan, membuka peluang baru bagi pelanggan untuk mengembangkan aplikasi AI yang sesuai dengan kebutuhan spesifik mereka. Pendekatan ini tidak hanya meningkatkan akurasi dan relevansi output AI tetapi juga memungkinkan perusahaan untuk memanfaatkan teknologi AI secara lebih efektif dan efisien.
Glosarium
- Adapters
Komponen tambahan yang dapat dilatih untuk menyesuaikan model AI dengan tugas atau domain tertentu tanpa memodifikasi model dasar. - AI (Artificial Intelligence)
Kecerdasan buatan, teknologi yang memungkinkan mesin untuk meniru kecerdasan manusia. - AI Factory
Ekosistem Nvidia untuk pengembangan dan penyempurnaan model AI. - CUDA
Platform komputasi paralel dan model pemrograman yang dikembangkan oleh Nvidia untuk komputasi umum pada GPU. - Fine-tuning
Proses penyesuaian model AI yang telah dilatih sebelumnya untuk tugas atau domain spesifik. - GPU (Graphics Processing Unit)
Unit pemrosesan grafis, chip khusus yang dirancang untuk menangani perhitungan kompleks secara paralel. - Guardrails
Mekanisme keamanan yang diterapkan pada model AI untuk memastikan output yang aman dan sesuai. - Large Language Models (LLM)
Model bahasa skala besar yang dilatih pada dataset besar untuk menghasilkan teks yang mirip manusia. - Llama 3.1
Model AI yang dikembangkan oleh Meta dengan 405 miliar parameter.
LoRA (Low-Rank Adaptation): Teknik untuk menyesuaikan model bahasa besar dengan efisien. - Nemotron
Model AI proprietary yang dikembangkan oleh Nvidia. - NeMo Guardrails
Sistem keamanan yang dikembangkan oleh Nvidia untuk model AI. - NIM (Nvidia Inference Microservices)
Container yang dapat diunduh untuk memfasilitasi interaksi AI. - NIM Factory
Sub-factory dalam ekosistem AI Factory Nvidia untuk membangun model dan infrastruktur AI. - Open Source: Perangkat lunak dengan kode sumber yang tersedia untuk umum dan dapat dimodifikasi.
- RAG (Retrieval-Augmented Generation)
Teknik yang menggabungkan pencarian informasi dengan generasi teks untuk meningkatkan akurasi output AI. - Supermodel
Konsep Nvidia untuk model AI yang sangat personal dan disesuaikan dengan kebutuhan pengguna. - Vektor Database
Basis data yang dirancang khusus untuk menyimpan dan mengelola data dalam bentuk vektor, yang sering digunakan dalam aplikasi AI.