Docker で LLM をネイティブに実行 – 近日公開予定!

Docker Model Runner の紹介

Docker Model Runner は、複雑なセットアップの排除、依存関係の処理、ハードウェアの最適化により、LLM の実行を容易にし、クラウドベースの推論に代わる安全で低遅延の代替手段を提供し、すべてが Docker Desktop にシームレスに統合されます。

  • Docker Hubから直接AIモデルをプル
  • 使い慣れたDocker CLIコマンドを使用してローカルで実行します
  • アプリケーション統合を容易にするOpenAIのAPI形式
  • Apple Silicon と NVIDIA GPU でサポートされるネイティブ GPU アクセラレーション
  • DockerコンテナでAIワークロードを安全に実行する

ローンチの最新情報を入手

お名前(必須)
私は、連絡先情報を提供することにより、Docker, Inc.がDockerの製品およびサービスに関する連絡を行うことを許可します。詳細または オプトアウト については、 プライバシーポリシー をご覧ください。