DeepSeek-V4 公式リリース:100万トークンコンテキスト、ハイブリッドアテンションアーキテクチャ、そしてオープンモデルの新しいSOTA

Fanch AIon 22 days ago

DeepSeek-V4 hybrid attention architecture million context infographic cover

今日は待望の DeepSeek-V4 公式リリース の日です。DeepSeek-V4 公式リリース により、チームはAI機能の歴史的な飛躍を実現し、特に 100万トークンコンテキスト を完全に制御しました。革新的な ハイブリッドアテンションアーキテクチャ を導入することで、このアップデートは確固たる オープンモデルの新しいSOTA を確立します。

基盤システムの深い再構築を通じて、DeepSeek-V4 公式リリース は超長文処理の効率の壁を打ち破りました。ここでは、その ハイブリッドアテンションアーキテクチャ100万トークンコンテキスト がどのように オープンモデルの新しいSOTA を再定義するかを紹介します。


1. コアモデルマトリックス:100万トークンコンテキスト向け

DeepSeek-V4 公式リリース プレビューには、100万トークンコンテキスト をネイティブにサポートする2つの強力なMoEモデルが含まれています:

  • DeepSeek-V4-Pro: 1.6Tパラメータを持ち、100万トークンコンテキスト を容易に処理します。
  • DeepSeek-V4-Flash: 284Bパラメータを持ち、100万トークンコンテキスト へのアクセスを容易にします。

2. ブレイクスルー:ハイブリッドアテンションアーキテクチャ

100万トークンコンテキスト 下での極限の効率を達成するため、DeepSeek-V4 公式リリースハイブリッドアテンションアーキテクチャ を筆頭に3つの革新を導入しました:

  • ハイブリッドアテンションアーキテクチャ: この ハイブリッドアテンションアーキテクチャ はCSAとHCAを組み合わせ、計算効率を大幅に向上させます。
  • mHC: ハイブリッドアテンションアーキテクチャ と共に残差接続を強化します。
  • Muonオプティマイザ: 訓練の安定性を高めます。

3. ハイブリッドアテンションアーキテクチャによる効率化

DeepSeek-V4 CSA and HCA efficiency comparison diagram against traditional architecture

100万トークンコンテキスト の処理には膨大な計算能力が必要ですが、DeepSeek-V4 公式リリース は驚異的な最適化を示しています:

  • ハイブリッドアテンションアーキテクチャ を搭載したV4-Proは、V3.2と比較してシングル推論FLOPsの27%しか必要としません。
  • 同じ 100万トークンコンテキスト 設定下で、KVキャッシュの要件はV3.2のわずか10%です。
  • 軽量なV4-Flashも ハイブリッドアテンションアーキテクチャ を利用して効率を極限まで高めています。

4. ベンチマーク:オープンモデルの新しいSOTA

DeepSeek-V4 公式リリース は最大32Tトークンで事前学習され、この オープンモデルの新しいSOTA を確保しました。

  • DeepSeek-V4-Pro-Maxは オープンモデルの新しいSOTA を再定義し、先行モデルを圧倒します。
  • 競技プログラミングにおいて、この オープンモデルの新しいSOTA はCodeforcesで23位にランクインしました。
  • Putnam-2025において、DeepSeek-V4 公式リリース は120/120の完璧な証明スコアを達成しました。

5. エージェントAI向けのツールアップグレード

DeepSeek-V4 agentic AI performance in coding, math, and tool calling

100万トークンコンテキスト を超えて、DeepSeek-V4 公式リリース はエージェントワークフローにおける オープンモデルの新しいSOTA としての地位を固めるためにツール呼び出しをアップグレードしました。


結論

DeepSeek-V4 公式リリース は単なるパラメータのアップグレードではありません。画期的な ハイブリッドアテンションアーキテクチャ を実装することで、100万トークンコンテキスト を高効率な現実に変えました。私たちは、次の時代を定義する オープンモデルの新しいSOTA を目撃しています。