Fakta Qwen3, Model AI Terbaru Alibaba yang Saingi OpenAI

Panggung persaingan industri kecerdasan buatan (AI) kembali kehadiran model baru dari China. Alibaba baru saja meluncurkan model AI terbarunya, Qwen3, pada 28 April 2025. Model ini diklaim mampu menandingi bahkan mengungguli model AI papan atas dari OpenAI dan Google. Qwen3 hadir sebagai penerus Qwen2.5 dengan berbagai peningkatan kemampuan yang signifikan.
Melansir TechCrunch, Qwen3 tersedia dalam delapan varian berbeda. Variasi Qwen3 terdiri dari dua model MoE (Mixture of Experts) dan enam model biasa dengan ukuran mulai dari 0,6 miliar hingga 235 miliar parameter. Sebagian besar model ini bisa diunduh gratis dengan lisensi Apache 2.0 dari platform Hugging Face, ModelScope, dan GitHub. Berikut fakta-fakta menarik dari Qwen3!
1. Performa Qwen3 dibandingkan pesaing
Model utama Qwen3-235B-A22B tampil mengesankan dalam berbagai tes. Model ini berhasil mengalahkan OpenAI o1 dan DeepSeek R1 di beberapa benchmark penting. Pada tes ArenaHard, Qwen3 meraih skor 95,6, jauh di atas o1 dari OpenAI yang hanya mencapai 92,1 dan hampir menyamai Gemini 2.5 Pro dari Google dengan skor 96,4.
Kemampuan matematika Qwen3 juga patut diacungi jempol. Pada tes AIME'24, model utama Qwen3 mendapat skor 85,7, mengungguli o1 (74,3) dan DeepSeek R1 (79,8). Hasil serupa juga terlihat pada AIME'25, dengan Qwen3-235B-A22B memperoleh skor 81,5, melampaui DeepSeek R1 (70) meski masih di bawah Gemini 2.5 Pro (86,7).
Dalam hal kemampuan coding, Qwen3 tidak kalah hebat. Pada benchmark CodeForces, model utama Qwen3 meraih rating Elo 2056, mengungguli o1 (1891), DeepSeek R1 (2029), dan Gemini 2.5 Pro (2001). Bahkan pada LiveCodeBench, Qwen3-235B-A22B meraih skor 70,7, lebih tinggi dari o1 (63,9) dan DeepSeek R1 (64,3).
Model yang lebih kecil seperti Qwen3-30B-A3B juga menunjukkan efisiensi luar biasa. Model ini mampu menyaingi performa QwQ-32B dengan hanya menggunakan 10 persen parameter aktif. Bahkan Qwen3-4B, model yang jauh lebih kecil, mampu menandingi Qwen2.5-72B-Instruct yang berukuran lebih besar. Efisiensi ini membuka peluang penggunaan AI canggih pada perangkat dengan daya komputasi terbatas.