Mau Saingi ChatGPT-5, DeepSeek-R2 Segera Diluncurkan Akhir Agustus 2025

DeepSeek sedang bersiap meluncurkan model bahasa pemrograman besar generasi berikutnya, yakni DeepSeek-R2. Kabarnya, program itu akan diluncurkan 15 atau 30 Agustus 2025.
Informasi soal peluncuran tersebut terungkap saat berinteraksi dengan model AI DeepSeek sendiri, yang mengisyaratka peluncuran akan segera dilakukan hanya beberapa hari setelah ChatGPT-5 dirilis.
DeepSeek-R2 diperkirakan akan membuat lompatan signifikan dalam arsitektur dengan mengadopsi pengaturan Mixture of Experts (MoE) yang lebih canggih.
Model ini juga akan mengintegrasikan jaringan gating yang lebih cerdas untuk menangani beban kerja yang membutuhkan banyak inferensi dengan lebih baik.
Menurut laporan, model ini dapat ditingkatkan hingga 1,2 triliun parameter atau hampir dua kali lipat dari DeepSeek-R1, yang memiliki 671 miliar parameter. Angka itu masih lebih rendah dibanding ChatGPT-4/5 yang memiliki lebih dari 1,8 triliun parameter.
Tiongkok Mulai Incar Pengembangan AI Domestik

Melalui langkah strategis menuju kemandirian AI domestik, model ini telah sepenuhnya dilatih pada chip Ascend 910B Huawei.
Klaster komputasi Huawei, yang menghasilkan kinerja FP16 512 PFLOPS pada utilisasi 82 persen, dilaporkan mencapai 91 persen dalam kinerja klaster A100 Nvidia.
Para analis melihatnya sebagai langkah penting dalam mengurangi ketergantungan Tiongkok pada perangkat keras AI buatan AS.
Pelatihan DeepSeek-R2 dilaporkan 97 persen lebih murah daripada GPT-4. Hal itu berkat perangkat keras dan teknik optimasi lokal.
Para analis juga memperkirakan, DeepSeek akan menawarkan akses API dengan harga lebih rendah, yang dapat mengguncang model penetapan harga saat ini yang didominasi oleh OpenAI dan Anthropic.
Antisipasi seputar DeepSeek-R2 telah memicu pergerakan saham teknologi Tiongkok. Produsen cip AI Cambricon mengalami lonjakan harga saham sebesar 20 persen, kemudian mendorong kapitalisasi pasarnya melampaui 355 miliar yuan (Rp 797 triliun).
Selain itu, Huawei telah meluncurkan kerangka kerja inferensi AI baru yang disebut Unified Cache Manager (UCM). Program itu dirancang untuk mempercepat inferensi model, kemudian UCM mengoptimalkan cara penanganan data KV Cache di berbagai tingkatan memori, seperti HBM, DRAM, dan SSD.
Lewat pengujian dengan China UnionPay, Huawei melaporkan penurunan latensi hingga 90 persen dan peningkatan throughput sebesar 22 kali lipat. Perusahaan juga berencana untuk menjadikan UCM sebagai sumber terbuka (open-source) pada September.
Peluncuran DeepSeek-R2 dan pengenalan kerangka kerja UCM Huawei menandakan perubahan besar dalam ambisi AI Tiongkok.
Perkembangan ini menunjukkan masa depan Tiongkok untuk membangun dan menjalankan sistem AI berkinerja tinggi tanpa bergantung pada chip. (sof)