昨年10月には、 NVIDIA DGX SparkのDocker Model Runner が、開発者がすでに信頼している同じ馴染みのあるDocker体験で大規模なAIモデルをローカルで非常に簡単に実行できることをお見せしました。その投稿は心に響きました。数百人の開発者が、コンパクトなデスクトップシステムとDocker Model Runnerの組み合わせが複雑なGPUセットアップやクラウドAPI呼び出しに取って代わることを発見したのです。
最近のNVIDIA GTC 2026では、 NVIDIA DGX Station で基準を引き上げ、Docker Model Runnerでサポートを追加できることを楽しみにしています!新しいDGXステーションは本格的な性能を持ち、Model Runnerは日常的に実用的に使えるようにしています。Model Runnerを使えば、DGXステーション上でより大きなモデルを実行・反復処理し、既に知り信頼できる直感的なDocker体験を活用できます。
NVIDIA DGX SparkからDGX Stationへ:何が変わり、なぜそれが重要なのか?
NVIDIA DGX Sparkは、GB10 Grace Blackwell Superchipを搭載し、開発者に 128GBの統一メモリとペタフロップ級のAI性能をコンパクトな形で提供しました。ランニングモデルの素晴らしい入り口です。
NVIDIA DGX Stationはまったく別の存在です。NVIDIA GB300Grace Blackwell Ultra Desktop Superchipを中心に構築され、72コアのNVIDIA Grace CPUとNVIDIA Blackwell Ultra GPUをNVIDIA NVLink-C2Cを介して接続し、最先端のAIワークロード向けに統一された高帯域幅アーキテクチャを構築しています。これはデータセンタークラスの性能をデスクサイドのフォームファクターに持ち込みます。以下が主なスペックです:
|
DGX Spark(イギリス10) |
DGX駅(イギリス300) |
|
|---|---|---|
|
GPUメモリ |
128 GB統一 |
252 GB |
|
GPUメモリ帯域幅 |
273 15 GB/s |
7。1 TB/s |
|
トータル・コヒーレント・メモリー |
128 GB |
748 GB |
|
ネットワーキング |
200 Gb/s |
800 Gb/s |
|
GPUアーキテクチャ |
ブラックウェル(5世代テンソルコア、FP4) |
ブラックウェル・ウルトラ(5世代テンソルコア、FP4) |
7252GBのGPUメモリ。1TB/sの帯域幅と合計748GBのコヒーレントメモリを備え、DGX Stationは単にフロンティアモデルを動かすだけでなく、兆パラメータモデルの実行、大規模なアーキテクチャの微調整、複数のモデルを同時に扱うことも可能で、すべてデスクから可能です。
ここに、何GBもの一貫した記憶と77481実際の帯域幅のアンロックはTB/sです:
- 量子化なしで最大のオープンモデルを実行してください。DGX Stationは量子化を用いて最大のオープン 1Tパラメータモデルを実行できます。
- 自分だけでなく、チームに仕えなさい。NVIDIAマルチインスタンスGPU (MIG)技術により、 NVIDIA Blackwell Ultra GPUを 最大7つの独立したインスタンスに分割できます。Docker Model Runnerのコンテナ化されたアーキテクチャと組み合わせることで、単一のDGX Stationがチーム全体の共有AI開発ノードとして機能し、各メンバーが独自のサンドボックスモデルエンドポイントを得られます。
- エージェント型ワークフローの反復速度が速くなります。エージェントAIパイプラインは、推論モデル、コード生成モデル、ビジョンモデルなど複数のモデルを同時に動作させる必要があることが多いです。7。1TB/sのメモリ帯域幅を使い、これらのモデル間の切り替えやサービスは、これまでのデスクトップシステムよりも劇的に高速です。
結論として、DGXのSparkはそれを速く実現しました。DGXステーションはそれを変革的なものにしています。そして、生のハードウェアは物語の半分に過ぎません。Docker Model Runnerを使えば、セットアップは簡単で、どんなにマシンが高性能になっても開発者体験はスムーズに保たれます。
始め方:同じDocker体験です
詳細のステップバイステップは、 DGX Sparkのガイドをご覧ください。すべての指示はDGXステーションにも適用されます。
NVIDIAの新しいDGX Stationは、252GBのGPUメモリを備えたデータセンター級のAIをあなたの机に置きます、71TB/sの帯域幅と 748GBの総コヒーレントメモリです。Docker Model Runnerは、開発者がすでにDGX Sparkで使っているのと同じ馴染みのあるコマンドで、そのすべての機能にアクセスします。兆パラメータモデルを作成し、チーム全体にサービスを提供し、エージェント型ワークフローを反復します。クラウドは不要で、新しいツールを学ぶ必要もありません。
参加方法
Docker Model Runnerの強みはコミュニティにあり、成長の余地は常にあります。参加するには:
- リポジトリに星をつける: Docker Model Runnerリポジトリに星をつけてサポートを示してください。
- アイデアを寄せてください: 問題を作成したり、プルリクエストを提出したりしてください。皆さんのアイデアを楽しみにしています!
- 広めよう: DockerでAIモデルを動かすことに興味がある友人や同僚に伝えましょう。
詳細情報
- Docker Model Runner + DGX Sparkに関するオリジナル投稿をお読みください
- Docker Model Runnerの一般公開発表をご覧ください
- 当社のModel Runner GitHubリポジトリをご覧ください
- シンプルなHello GenAIアプリケーションから始めましょう