DeepSeek-R2 Segera Meluncur, Tiongkok Mulai Kembangkan AI Domestik

DeepSeek sedang bersiap meluncurkan model bahasa pemrograman generasi berikutnya, yaitu DeepSeek-R2.
DeepSeek-R2 akan diluncurkan sekitar 15 atau 30 Agustus 2025. Tanggal peluncuran tersebut terungkap saat berinteraksi dengan model AI DeepSeek sendiri, yang mengisyaratkan peluncuran segera dilakukan setelah ChatGPT-5.
Selain itu, DeepSeek-R2 diperkirakan akan membuat lompatan dengan mengadopsi pengaturan Mixture of Experts (MoE) yang lebih canggih.
Model ini juga akan mengintegrasikan jaringan yang lebih cerdas untuk menangani beban kerja yang lebih besar.
Menurut laporan, model ini dapat ditingkatkan hingga 1,2 triliun parameter, atau hampir dua kali lipat dari DeepSeek-R1, yang memiliki 671 miliar parameter.
Angka tersebut masih lebih rendah daripada ChatGPT-4/5, yang memiliki lebih dari 1,8 triliun parameter.
Tiongkok Mulai Kembangkan AI Domestik
Tiongkok mulai kembangkan AI domestik. Foto: Unsplash/Solen Feyissa
Melalui langkah strategis menuju kemandirian AI domestik, model ini telah sepenuhnya dilatih pada chip Ascend 910B Huawei.
Klaster komputasi Huawei, yang menghasilkan kinerja FP16 512 PFLOPS pada utilisasi 82 persen, dilaporkan mencapai 91 persen kinerja klaster A100 Nvidia.
Para analis melihat ini sebagai langkah penting dalam mengurangi ketergantungan Tiongkok pada perangkat keras AI buatan AS.
Pelatihan DeepSeek-R2 dilaporkan 97 persen lebih murah daripada GPT-4. Hal itu berkat perangkat keras dan teknik optimasi lokal.
Analis juga memperkirakan, bahwa DeepSeek akan menawarkan akses API dengan harga lebih murah, yang dapat mengguncang model penetapan harga saat ini, yang didominasi oleh OpenAI dan Anthropic.
Antisipasi terhadap DeepSeek-R2 telah memicu pergerakan saham teknologi Tiongkok. Produsen chip AI Cambricon mengalami lonjakan harga saham sebesar 20 persen. Hal itu mendorong kapitalisasi pasarnya melampaui 355 miliar yuan (Rp 797 triliun).
Sementara itu, Huawei telah meluncurkan kerangka kerja inferensi AI baru yang disebut Unified Cache Manager (UCM).
Program itu dirancang untuk mempercepat inferensi model, kemudain UCM mengoptimalkan cara penanganan data KV Cache di seluruh tingkatan memori, seperti HBM, DRAM, dan SSD.
Melalui pengujian dengan China UnionPay, Huawei melaporkan penurunan latensi hingga 90 persen dan peningkatan throughput hingga 22 kali lipat.
Perusahaan juga berencana untuk menjadikan UCM sebagai sumber terbuka pada September.
Peluncuran DeepSeek-R2 dan pengenalan kerangka kerja UCM Huawei secara bersamaan menandakan perubahan besar dalam ambisi AI Tiongkok.
Perkembangan ini menunjukkan masa depan, di mana Tiongkok membangun dan menjalankan sistem AI berkinerja tinggi tanpa bergantung pada chip atau perangkat lunak dari barat. (sof)