DeepSeek V3.1は、中国のAI企業DeepSeek(DeepSeek)が2025年8月19日にリリースした最新のオープンソース大言語モデルです。これは元のDeepSeek V3に基づく増分アップグレードバージョンで、主な改善点には拡張されたコンテキストウィンドウと強化された推論能力が含まれます。
複数のプラットフォームとサービスからDeepSeek V3.1にアクセス
公式プラットフォーム
公式チャネル、登録には中国の電話番号のみが必要、使用量が多い、サービスが不安定な場合がある
HuggingFace Space
HuggingFace Spaceを通じてDeepSeek V3.1をオンラインで無料使用、独自のAPIキーの使用もサポート
私たちのプラットフォーム
当社のプラットフォームで、DeepSeek V3.1 & DeepSeek-V3 671Bフルバージョンをオンラインで無料使用。
API統合
DeepSeek V3.1のAPIをアプリケーションに統合。電話番号で登録すると14元の無料クレジットを獲得
ローカル展開
GitHubでモデルの重みとソースコードにアクセス、自己展開用
APIドキュメント
完全なAPIドキュメント、統合ガイド、サンプルコードを表示
DeepSeek V3.1は、元のV3に基づく重要なアップグレードを特徴とする革新的なAIモデルです。671Bの総パラメーター、トークンごとに37Bのアクティブ化されたパラメーター、128Kのコンテキスト長をサポートし、深い推論能力をメインモデルに直接統合します。
V3.1は、数学的推論、フロントエンドプログラミング、中国語の執筆などで大幅な改善を示し、推論モードの手動切り替えが不要で、より統一されたシームレスなユーザーエクスペリエンスを提供します。このモデルは、長いドキュメント分析、コード開発、教育指導、その他のアプリケーションシナリオに特に適しています。
DeepSeek V3.1を最新のオープンソースAIモデルのリーダーにする革新的な機能を探索
128Kトークンまでのコンテキスト入力をサポートし、長いドキュメント、マルチターン会話、大きなコードベースを効率的に処理。
深い推論能力をメインモデルに直接統合し、手動切り替えなしで、思考プロセスを開始するかどうかを自動的に決定。
数学的推論、フロントエンドプログラミング、中国語の執筆などで大幅な改善、より美しく実行可能なコードを生成。
671B総パラメーター、トークンごとに37Bのアクティブ化されたパラメーター、革新的なMixture-of-Expertsアーキテクチャに基づく。
100+言語をサポート、特にアジア言語と少数言語で優れ、グローバル使用に適している。
MITライセンスを採用、モデルの重みと技術レポートを完全にオープン、商業使用と修正をサポート。
研究者と開発者がDeepSeek V3.1の機能を活用している方法をご覧ください
複雑な推論とコード生成に優れている
コストとパフォーマンスの最適なバランスを提供
オープンソースエコシステムと学術研究への重要な貢献
新バージョンは128Kトークンまでのコンテキスト入力をサポートし、長いドキュメント、マルチターン会話、大きなコードベースを効率的に処理します。
V3.1はより長いコンテキストを持ち、推論能力もメインモデルに統合されています。V3と比較すると、構造化された出力がより良く、テーブル/リスト生成能力がより強力です;R1と比較すると、より汎用的で応答が速く、通常のシナリオに適しています。
V3.1は生成されたコンテンツの精度を最適化し、以前のバージョンと比較して大幅な改善を示していますが、重要な結論については手動レビューが必要です。
100+言語をサポートし、特にアジア言語と少数言語で優れ、グローバル使用に適しています。
フロントエンド開発、科学的推論、論文執筆、教育指導、その他の複雑なシナリオに適しています。
AlipayとWeChatを通じたオンラインチャージをサポート(企業は企業振込が可能)、アカウント残高は期限切れになりません、請求書発行サイクルは約7営業日です。
ユーザーレベルでの厳密な同時実行制限はなく、システムは現在の負荷に基づいて動的にスロットリングします。503または429エラーが発生した場合、ピーク時の自動スロットリングの可能性があります。
Webバージョンはデフォルトのストリーミング出力を使用(生成しながら表示)、APIはデフォルトで非ストリーミング(生成完了後にコンテンツを返す)、ユーザーはAPIを手動でストリーミングをサポートするように設定して最適化されたエクスペリエンスを得ることができます。
公式推奨は適切なツール/スクリプトを使用してオフライン統計を行うこと、計算とコスト管理に便利です。
ほとんどのユーザーは、コーディングと推論能力が大幅に向上し、生成された結果がより構造化されていると考えています;一部のユーザーは、モデルのスタイルが以前のバージョンより「学術的」で「自然」ではないというフィードバックを提供しています。時々サーバー負荷の問題が応答遅延を引き起こし、時々出力幻覚現象が発生します。