vLLM対0を発表します。12。0、ミニストラル3とディープシークV3。Docker Model Runner の2

投稿日 12月 5, 2025

Dockerでは、AI開発体験をできるだけシームレスにすることに全力を尽くしています。本日、最先端のパフォーマンスおよびフロンティアクラスのモデルを直接手元で届ける2つの大きなアップデートを発表できることを大変嬉しく思います。それは 、Mistral AIの Ministral 3DeepSeek-V3.2の即時利用、そしてDocker Model Runnerでの vLLM v012.0 のリリースです。

高スループットのサービングパイプラインを構築している場合でも、ノートパソコンでエッジ最適化エージェントを試している場合でも、今日のアップデートはワークフローを加速するために設計されています。

ミニストラル 3をご紹介します:フロンティア・インテリジェンス、エッジ最適化

vLLM 2ndブログ画像 1

vLLMが本番環境を支える一方で、 開発には速さと効率性が求められていることは理解しています。だからこそ、Mistral AIの最新の驚異である Ministral 3Docker HubのDocker Model Runnerライブラリに追加できることを誇りに思います。

Ministral 3 はMistral AIの代表的なエッジモデルです。これは、フロンティアレベルの推論と能力を、局所推論に特化した密度の高い効率的なアーキテクチャに詰め込んでいます。以下に最適です:

  • 地域でのRAGアプリケーション: データがマシンから出ることなくドキュメントとチャットしましょう。
  • エージェントワークフロー: 複雑な関数呼び出しエージェントのための迅速な推論ステップ。
  • 低遅延プロトタイピング: API呼び出しを待たずにアイデアを即座にテストできます。

ディープシーク-V3。2:オープン・レッスン・パワーハウス

vLLM 2ndブログ画像 2

また、DeepSeek-Vのサポートを導入できることにも同じく32。オープンウェイトモデルの限界を押し広げることで知られるDeepSeek-V3 シリーズは、高度な推論力とコーディング能力を求める開発者の間で急速に人気を集めています。

ディープシーク-V3。2 は、Mixture-of-Experts(MoE)アーキテクチャの効率性を地域環境にもたらし、最上位クラスのクローズドモデルに匹敵するパフォーマンスを提供します。これは以下の用途に理想的な選択肢です:

  • 複雑なコード生成: プログラミングタスクに特化したモデルでソフトウェアを構築し、デバッグします。
  • 高度な推論: 複雑な論理パズル、数学問題、多段階の指示に取り組む。
  • データ分析: 構造化データを高精度で処理・解釈します。

ワンコマンドで実行する

Docker Model Runnerなら、複雑な環境設定やPython依存関係、ダウンロードの重み付けを気にする必要はありません。両方のモデルをパッケージ化しているので、すぐに始められます。

ミニストラル 3を運用するには:

docker model run ai/ministral3

DeepSeek-Vを3に動かすために。2:

docker model run ai/deepseek-v3.2-vllm

これらのコマンドは自動的にモデルを引き出し、ランタイムを設定し、インタラクティブなチャットセッションにあなたを投入します。また、OpenAI互換のローカルエンドポイントを使ってアプリケーションをこれらのアプリに向けることもでき、開発中のクラウドAPI呼び出しの代わりにドロップインできます。

vLLM対0。12。0:より速く、よりスリムに、そして次に何が待っているかに備えている

vLLMブログ 1

vLLM v0120のリリースを紹介できることを嬉しく思います。vLLMは急速に高スループットかつメモリ効率の高いLLMサービスのゴールドスタンダードとなり、この最新バージョンはさらにその基準を引き上げました。

バージョン 0。12。0エンジンに重要な改良を加えました。以下のようなものです:

  • モデルサポートの拡大: 最新のアーキテクチャ革新0 サポートし、DeepSeek V32 やMinistral 3など、最新のオープンウェイトモデルがドロップした瞬間に動かせるようにします。
  • 最適化されたカーネル: NVIDIA GPUでの推論遅延が大幅に削減され、コンテナ化されたAIアプリケーションがこれまで以上にスピーディーになります。
  • ページ数強化注意: メモリ管理のさらなる最適化により、より多くのリクエストをバッチ処理し、ハードウェアを最大限に活用できるようになります。

なぜこれが重要なのか

Ministral 3DeepSeek-V32vLLM v012.0オープンAIエコシステムの成熟を示しています。

データセンターのパフォーマンスを最大化するサービングエンジンにアクセスでき、さらにMinistral 3 のエッジ最適化速度もDeepSeek-V3の深層推論力も重視するか、あなたのニーズに合わせたモデルを選択できます。2。これらすべてはDocker Model Runnerを通じて簡単にアクセスできます。

参加方法

Docker Model Runnerの強みはコミュニティにあり、成長の余地は常にあります。このプロジェクトを最高のものにするために、皆さんのご協力が必要です。参加するには、以下の方法があります:

  • リポジトリにスターを付けます。 サポートを示し、 Docker Model Runnerリポジトリにスターを付けて可視性を高めるのにご協力ください。
  • アイデアを投稿してください。 新機能やバグ修正のアイデアはありますか?問題を作成して議論します。または、リポジトリをフォークし、変更を加えて、pull request を送信します。私たちはあなたがどんなアイデアを持っているかを見るのを楽しみにしています!
  • 言葉を広める: 友人、同僚、および Docker で AI モデルを実行することに興味がある可能性のある人に伝えてください。

私たちは Docker Model Runner のこの新しい章に非常に興奮しており、一緒に何を構築できるかを見るのが待ちきれません。さあ、仕事に取り掛かりましょう!

関連記事