エージェントは未来であり、まだエージェントの構築を始めていない場合は、おそらくすぐに始めるでしょう。業界やユースケースを問わず、エージェントは私たちに代わって行動し、判断とコンテキストで私たちに代わって行動できるため、反復作業の負荷を軽減することができます。
しかし、エージェント開発は急速に進んでいますが、今日では退屈で難しく、楽しくありません:さまざまなプロンプトとモデル(フロンティアモデルとローカル/オープンモデルの両方)で迅速に反復する必要があり、MCPツールを見つけて内部データに安全に接続する必要があり、他の人がエージェントを実行できるようにすべてを宣言的にパッケージ化する必要があります。そして、これを一度ビルドすれば、ラップトップ、CI、本番環境など、どこでも実行できる必要があります。
これらの問題は新しいものではなく、Dockerが最初に考案されたものです。昔々、Docker がマイクロサービスを可能にしたと言っても過言ではありませんが、本日は、エージェントの時代に向けて Docker をどのように進化させているかを共有できることを嬉しく思います。
本日リリース:Composeはエージェントの時代に突入
本日より、Docker はエージェントとエージェント・アプリケーションの構築、出荷、実行を容易にします。Docker Composeは10年前にリリースされ、マルチコンテナアプリケーションの構築方法と記述方法の問題を解決しました。毎日何百万人ものデベロッパーに愛用され、使用されているため、Compose にエージェント ビルディング ブロックが搭載されたことをお知らせします。
さて、たった compose.yaml
で、オープンモデル、エージェント、MCP互換ツールを定義し、簡単な docker compose up
でエージェントスタック全体をスピンアップできます。開発から本番環境まで(これについては後で詳しく説明します)、エージェントは配線され、接続され、実行する準備ができています。
それだけではありません。また、Compose は、現在最も人気のあるエージェントフレームワークとシームレスに統合されています。
- LangGraph – LangGraphワークフローを定義し、サービスとしてラップし、compose.yamlにプラグインします。そして、
docker compose up
で完全なグラフを実行します。LangGraphチュートリアルをお試しください。 - Embabel – Compose を使用して、モデルを接続したり、ツールを埋め込んだり、完全な Embabel 環境を実行したりできます。クイックスタートガイドをご覧ください。
- Vercel AI SDK – Compose を使用すると、サポートするエージェントやサービスをローカルで簡単に立ち上げることができます。Vercel AI の例をご覧ください。
- Spring AI – Compose を使用して、ベクター ストア、モデル エンドポイント、エージェントを Spring AI バックエンドと共にスピンアップします。Spring AI のサンプルを表示します。
- CrewAI – Compose を使用すると、CrewAI エージェントをコンテナ化できます。CrewAI スタート ガイドをお試しください。
- Google の ADK – Docker Compose を使用して、ADK ベースのエージェント スタックを簡単にデプロイできます - エージェント、ツール、ルーティング レイヤーをすべて 1 つのファイルで定義します。私たちの例を試してみてください。
- Agno – Composeを使用して、Agnoベースのエージェントとツールを簡単に実行できます。Agno の例を見てみましょう。
しかし、新しいDocker ComposeのパワーはSDKにとどまらず、Dockerの広範なAI機能スイートと深く統合されています。
Docker の MCP カタログ では、エージェント向けの信頼性の高いプラグ アンド プレイ ツールのライブラリにすぐにアクセスできます。リポジトリを掘り下げたり、互換性について心配したり、手動で接続したりする必要はありません。必要なものをComposeファイルにドロップするだけで、すぐに実行できます。
Docker Model Runner を使用すると、Docker Hub から直接オープンウェイトの LLM をプルし、ローカルで実行し、組み込みの OpenAI 互換エンドポイントを介して操作できるため、既存の SDK とライブラリが機能し、書き換えやツールのやり直しは必要ありません。また、フルGPUアクセラレーションで動作します。しかし、地元のリソースが足りない場合はどうでしょうか?
Docker オフロードのご紹介: クラウドのパワー、ローカルのシンプルさ
エージェントを構築するとき、ローカルリソースの制限によって速度が低下することはありません。そのため、クラウドGPU上でモデルとコンテナを真にシームレスに実行できる Dockerオフロードを導入します。
Docker オフロードは、大規模な言語モデルやマルチエージェント オーケストレーションなどの計算負荷の高いワークロードをハイパフォーマンスのクラウド環境にオフロードすることで、インフラストラクチャの制約から解放します。複雑なセットアップ、GPUの不足、構成の頭痛の種はありません。
Docker Desktop と Docker Engine へのネイティブ統合により、Docker Offload は Compose からクラウドへのワンクリック パスを提供します。エージェントアプリケーションをビルド、テスト、スケーリングするのは、いつもローカルで行うのと同じように、Dockerが舞台裏で面倒な作業を処理します。これは同じシンプルな docker compose up
エクスペリエンスですが、クラウドの力でさらに強化されています。
また、開始するために、オフロードを300 分間無料で提供しています。試してみて、エージェントを構築し、ラップトップからクラウドに簡単に拡張できます。
Compose は Google Cloud と Microsoft Azure で本番環境に対応できるようになりました
最後になりましたが、開発中に使用したのとまったく同じ Compose ファイルが、書き換えや再構成なしで本番環境で機能するように、私たちは懸命に取り組んできました。
Google Cloud Run および Microsoft Azure Container Apps Service との新しい統合により、Docker Compose でサーバーレス アーキテクチャを指定できるようになりました。たとえば、Google Cloud では、新しい gcloud run compose up
コマンドを使用して、エージェントアプリをサーバーレス環境に直接デプロイできます。また、Microsoft と緊密に連携して、このシームレスなエクスペリエンスを Azure にも導入しています。
YAML のファーストラインから本番環境へのデプロイまで、Compose は、エージェント開発のあるべき姿で、全体のジャーニーを一貫性があり、移植性があり、簡単にします。
未来を作ろう。一緒に。
ソフトウェアの未来はエージェントであり、すべての開発者が、ツールとサービスの豊富なエコシステム全体で推論、計画、行動する、目標主導型のマルチLLMエージェントを構築します。
Docker Compose、Docker オフロード、Docker の広範な AI 機能、Google、Microsoft、Agent SDK とのパートナーシップにより、私たちはその未来を誰もが簡単に利用できるようにしています。
要するに、Dockerは、開発から本番環境まで、インテリジェントエージェントを構築、実行、スケーリングする最も簡単な方法です。
私たちはあなたが何を作成するかを見るのが待ちきれません。
リソース
- Docker はエージェント開発を簡素化します
- Docker オフロードの機能を調べる
- AIエージェントの詳細をご覧ください: Ask Gordon(ゴードンに聞く)
- Docker Compose を使用したエージェント アプリの構築
- Docker Model Runner の詳細