CEO Nvidia Klaim Chip AI Tumbuh Lebih Cepat
JAKARTA, Investortrust.id - CEO Nvidia, Jensen Huang, mengeklaim bahwa kinerja chip kecerdasan buatan atau artificial intelligence (AI) perusahaan mereka berkembang jauh lebih cepat dibandingkan kecepatan yang diprediksi oleh Hukum Moore. Pernyataan ini disampaikan Huang setelah memberikan pidato utama di acara CES 2025 di Las Vegas yang dihadiri lebih dari 10.000 orang.
“Kami berkembang jauh lebih cepat daripada Hukum Moore,” ujar Huang, dikutip dari TechCruch, Rabu (8/1/2025).
Hukum Moore yang diperkenalkan oleh Gordon Moore pada 1965, memprediksi bahwa jumlah transistor pada chip komputer akan berlipat ganda setiap tahun, meningkatkan kinerjanya secara eksponensial. Namun, laju perkembangan ini justru melambat dalam beberapa tahun terakhir.
Nvidia menyatakan bahwa chip anyar mereka untuk pusat data mampu menjalankan beban kerja AI 30 hingga 40 kali lebih cepat dibandingkan generasi sebelumnya. Huang menjelaskan, ini dimungkinkan karena Nvidia merancang seluruh ekosistem secara terpadu, mulai dari arsitektur, chip, sistem, hingga algoritma.
“Kami dapat mengembangkan semuanya secara bersamaan, yang memungkinkan kami bergerak lebih cepat daripada Hukum Moore,” katanya.
Pada kesempatan yang sama, Huang memperkenalkan superchip pusat data terbaru Nvidia, GB200 NVL72, yang dirancang untuk beban kerja inferensi AI. Chip ini dinilai sebagai solusi utama untuk tantangan biaya tinggi dalam fase inferensi, seperti yang dialami oleh model AI OpenAI’s O3.
Baca Juga
Momen Prabowo Telepon CEO Nvidia via HP Bos GoTo saat Acara Indonesia AI Day
Beban kerja inferensi pada AI merujuk pada proses ketika model AI digunakan untuk menghasilkan output atau prediksi berdasarkan input data tertentu. Inferensi adalah tahap di mana model yang telah dilatih sebelumnya diterapkan dalam skenario nyata untuk memecahkan masalah atau memberikan hasil.
Sebagai contoh, OpenAI dilaporkan menghabiskan hampir US$ 20 per tugas untuk mencapai skor kecerdasan umum setara manusia dengan O3. Huang yakin bahwa dengan peningkatan performa chip, biaya operasional seperti ini akan menurun drastis seiring waktu.
“Solusi langsung untuk masalah biaya inferensi adalah meningkatkan kemampuan komputasi,” jelasnya.
Huang mengeklaim bahwa chip Nvidia saat ini 1.000 kali lebih canggih dibandingkan chip yang dibuat perusahaan 10 tahun lalu. Perusahaan seperti Google, OpenAI, dan Anthropic terus menggunakan chip Nvidia untuk melatih dan menjalankan model AI mereka.
Nvidia juga mencatat tren penurunan harga untuk model AI selama setahun terakhir, sebagian besar karena terobosan perangkat keras seperti superchip terbaru mereka.
“Kami tidak melihat tanda-tanda perlambatan dalam kemajuan ini,” tutup Huang.
Nvidia terus menghadapi persaingan dari pemain besar lainnya, seperti Amazon dan AMD, dalam menguasai pasar chip AI. Namun, dengan inovasi berkelanjutan, Nvidia optimis dapat mempertahankan posisinya sebagai pemimpin pasar.
Dengan klaim performa chip terbaru yang melebihi standar Hukum Moore, Nvidia berkomitmen untuk mendorong efisiensi biaya dan mempercepat adopsi AI secara global. (C-13)

