Kepopuleran ChatGPT Bakal Bikin GPU Nvidia Langka, Benarkah?

OpenAI dikabarkan butuh puluhan ribu GPU untuk latih AI-nya

Berkat ChatGPT, teknologi AI model bahasa mulai populer. Makin banyak chatbot AI yang dikembangkan oleh berbagai perusahaan. Mulai dari OpenAI, Google, Meta, hingga Alibaba tengah meneliti dan mengembangkan potensi AI model bahasa.

Tentunya tak mudah untuk mengembangkan sebuah AI model bahasa. Butuh teknologi yang mumpuni untuk melatih sebuah AI agar bisa berkomunikasi dengan luwes layaknya ChatGPT yang kini tengah populer. Nah di tengah kepopuleran tersebut, beredar rumor yang menyebut bahwa OpenAI butuh puluhan ribu Graphics Processing Unit atau GPU untuk melatih AI mereka. Benarkah?

OpenAI disebut akan butuh lebih dari 30.000 GPU

Melansir laporan TrendForce, pengembangan ChatGPT membutuhkan sekitar 20.000 kartu grafis untuk memproses data pada tahun 2020. Dengan melihat popularitasnya yang makin ramai dan penggunaannya yang makin meluas, TrendForce memperkirakan OpenAI akan membutuhkan lebih dari 30.000 kartu grafis atau GPU.

Kabar tersebut tentu membuat para produsen GPU merasa senang, termasuk Nvidia. Memang pasar GPU untuk pusat pemrosesan data saat ini tak hanya diisi oleh Nvidia saja. Masih ada Intel dan AMD yang juga menjual akselerator AI. Meski begitu, Nvidia dianggap sebagai perusahaan pilihan untuk memberikan solusi AI.

Karena kebutuhan kartu grafis yang makin besar, Nvidia diperkirakan akan ikut merasakan keuntungan dari tren chatbot AI. Perusahaan GPU yang populer di kalangan gamers tersebut diperkirakan akan meraup pendapatan sebesar USD 300 juta dari penjualan kartu grafis untuk OpenAI.

Tak gunakan GPU untuk gaming

Kepopuleran ChatGPT Bakal Bikin GPU Nvidia Langka, Benarkah?Unsplash/ Caspar Camille Rubin

Menurut proyeksi TrendForce, OpenAI selaku pencipta ChatGPT akan membutuhkan lebih dari 30.000 GPU Nvidia untuk memproses data pelatihan. Meski begitu, gamers bisa sedikit lega lantaran seri yang dibutuhkan untuk proses pelatihan AI berbeda dengan GPU untuk gaming seperti seri Nvidia GeForce RTX. 

Melansir proyeksi TrendForce, ada anggapan bahwa OpenAI akan menggunakan GPU Nvidia A100 untuk melatih AI mereka. Alasannya karena seri A100 merupakan akselerator komputasi yang jauh lebih bertenaga ketimbang kartu grafis komersial untuk gaming. Bisa juga OpenAI lebih memilih untuk menggunakan Nvidia seri H100 yang diklaim lebih bertenaga dibanding A100. Tentunya, harga dari H100 jauh lebih mahal dibanding A100.

Seri A100 sendiri dihargai sekitar USD10.000 hingga USD15.000 tergantung form factor dan konfigurasinya. Sementara seri H100 dibanderol dengan harga USD30.000, tiga kali lipat dari harga A100.

Kalau begitu, bisa dijamin bahwa hal tersebut tak akan mengganggu stok dari GPU untuk gaming, kan?

Jawabannya, belum tentu. Semua tergantung dari kebijakan Nvidia. Jika produsen GPU asal Amerika Serikat tersebut harus mengejar produksi untuk kepentingan pelatihan AI, bisa jadi fokus produksi mereka akan bergeser. Jika Nvidia mengalihkan fokus produksinya, bisa jadi produksi GPU untuk gaming akan berkurang.

Baca Juga: Mengenal GPU RDNA 3, Jagoan Terbaru dari AMD yang Siap Saingi NVIDIA

Topik:

  • Fatkhur Rozi

Berita Terkini Lainnya