オンデマンドビデオ
Docker Model RunnerでローカルAIワークフローをレベルアップしましょう
開発者は迅速に実験するためにローカルでモデルを動かすのが好きですが、それらのモデルを基に構築されたAIアプリケーションを開発から本番環境まで進めるには、それ以上のことが求められます。モデルを共有し、環境間で一貫して実行し、エンタープライズワークロード向けにスケールできる方法が必要です。
開発者がローカルでAIモデルを簡単にテスト・実行・管理できるよう設計されたDocker Model Runnerのライブウォークスルーにぜひご参加ください。ほぼすべてのGPUでマルチモーダルモデルを運用する方法を学び、モデル配布を効率化し、チーム間のコラボレーションを簡素化します。
ボーナス:vLLMサポートなど、開発から本番まで高性能推論を行うチーム向けに設計された今後の機能を先行公開できます。
ご関心をお寄せいただき、誠にありがとうございます。Dockerチームからご連絡いたします。
ウェビナーにご登録いただきありがとうございます。 まもなく確認メールが届きます。