Docker で LLM をネイティブに実行 – 近日公開予定!
Docker Model Runner の紹介
Docker Model Runner は、複雑なセットアップの排除、依存関係の処理、ハードウェアの最適化により、LLM の実行を容易にし、クラウドベースの推論に代わる安全で低遅延の代替手段を提供し、すべてが Docker Desktop にシームレスに統合されます。
- Docker Hubから直接AIモデルをプル
- 使い慣れたDocker CLIコマンドを使用してローカルで実行します
- アプリケーション統合を容易にするOpenAIのAPI形式
- Apple Silicon と NVIDIA GPU でサポートされるネイティブ GPU アクセラレーション
- DockerコンテナでAIワークロードを安全に実行する