DeepSeek V3.1 adalah model bahasa besar open source terbaru yang dirilis oleh perusahaan AI China DeepSeek (DeepSeek) pada 19 Agustus 2025. Ini adalah versi peningkatan bertahap berdasarkan DeepSeek V3 asli, dengan peningkatan utama termasuk jendela konteks yang diperluas dan kemampuan penalaran yang ditingkatkan.
Akses DeepSeek V3.1 melalui beberapa platform dan layanan
Platform resmi
Saluran resmi, pendaftaran hanya memerlukan nomor telepon China, volume penggunaan tinggi, mungkin ada kasus ketidakstabilan layanan
HuggingFace Space
Gunakan DeepSeek V3.1 online gratis melalui HuggingFace Space, sambil mendukung penggunaan kunci API Anda sendiri
Platform kami
Di platform kami, gunakan DeepSeek V3.1 & DeepSeek-V3 671B versi lengkap online gratis.
Integrasi API
Integrasikan API DeepSeek V3.1 ke dalam aplikasi Anda. Pendaftaran dengan nomor telepon memberi Anda 14 yuan kredit gratis
Penerapan lokal
Akses bobot model dan kode sumber di GitHub untuk penerapan mandiri
Dokumentasi API
Lihat dokumentasi API lengkap, panduan integrasi dan kode contoh
DeepSeek V3.1 adalah model AI revolusioner dengan peningkatan penting berdasarkan V3 asli. Ini memiliki 671B parameter total, 37B parameter yang diaktifkan per token, mendukung panjang konteks 128K dan mengintegrasikan kemampuan penalaran mendalam langsung ke dalam model utama.
V3.1 menunjukkan peningkatan signifikan dalam penalaran matematis, pemrograman frontend, penulisan China, dll., tanpa memerlukan pergantian manual mode penalaran, memberikan pengalaman pengguna yang lebih terpadu dan lancar. Model ini sangat cocok untuk analisis dokumen panjang, pengembangan kode, bimbingan pendidikan, dan skenario aplikasi lainnya.
Jelajahi kapasitas inovatif yang menjadikan DeepSeek V3.1 pemimpin model AI open source terbaru
Mendukung input konteks hingga 128K token, memproses dokumen panjang, percakapan multi-turn, dan codebase besar secara efisien.
Mengintegrasikan kapasitas penalaran mendalam langsung ke dalam model utama tanpa pergantian manual, secara otomatis menentukan apakah akan memulai proses berpikir.
Peningkatan signifikan dalam penalaran matematis, pemrograman frontend, penulisan China, dll., menghasilkan kode yang lebih indah dan dapat dieksekusi.
Ditandai dengan 671B parameter total dengan 37B parameter yang diaktifkan per token, berdasarkan arsitektur Mixture-of-Experts yang inovatif.
Mendukung 100+ bahasa, terutama unggul dalam bahasa Asia dan minoritas, cocok untuk penggunaan global.
Mengadopsi lisensi MIT, membuka sepenuhnya bobot model dan laporan teknis, mendukung penggunaan komersial dan modifikasi.
Lihat bagaimana peneliti dan pengembang memanfaatkan kemampuan DeepSeek V3.1
Unggul dalam penalaran kompleks dan generasi kode
Memberikan keseimbangan optimal antara biaya dan kinerja
Kontribusi penting untuk ekosistem open source dan penelitian akademis
Versi baru mendukung input konteks hingga 128K token, memproses dokumen panjang, percakapan multi-turn, dan codebase besar secara efisien.
V3.1 memiliki konteks yang lebih panjang dan kapasitas penalaran juga terintegrasi dalam model utama. Dibandingkan dengan V3, output terstruktur lebih baik, kapasitas generasi tabel/daftar lebih kuat; dibandingkan dengan R1, lebih umum dan merespons lebih cepat, cocok untuk skenario reguler.
V3.1 telah mengoptimalkan akurasi konten yang dihasilkan, menunjukkan peningkatan signifikan dibandingkan versi sebelumnya, tetapi masih memerlukan tinjauan manual untuk kesimpulan penting.
Mendukung 100+ bahasa, terutama unggul dalam bahasa Asia dan minoritas, cocok untuk penggunaan global.
Cocok untuk pengembangan frontend, penalaran ilmiah, penulisan dokumen, bimbingan pendidikan, dan skenario kompleks lainnya.
Mendukung pengisian ulang online melalui Alipay dan WeChat (perusahaan dapat melakukan transfer korporat), saldo akun tidak kedaluwarsa, siklus penerbitan tagihan sekitar 7 hari kerja.
Tidak ada batasan konkurensi yang ketat di tingkat pengguna, sistem akan membatasi kecepatan secara dinamis berdasarkan beban saat ini. Jika Anda menemukan kesalahan 503 atau 429, mungkin karena pembatasan otomatis selama periode puncak.
Versi web menggunakan output streaming default (menampilkan sambil menghasilkan), API default adalah non-streaming (mengembalikan konten setelah generasi selesai), pengguna dapat mengatur API secara manual untuk mendukung streaming untuk pengalaman yang dioptimalkan.
Rekomendasi resmi adalah menggunakan alat/script yang sesuai untuk statistik offline, nyaman untuk perhitungan dan manajemen biaya.
Kebanyakan pengguna percaya bahwa kemampuan pengkodean dan penalaran telah meningkat secara signifikan, hasil yang dihasilkan lebih terstruktur; beberapa pengguna memberikan umpan balik bahwa gaya model lebih 'akademis' dan kurang 'alami' dari versi sebelumnya. Kadang-kadang ada masalah beban server yang menyebabkan keterlambatan respons, dan fenomena halusinasi output sesekali.