開発から製品へのエージェントをシンプルに
Docker Compose は、すべてをまとめます。
使い慣れたSDKで構築
お気に入りのLLMを実行し、MCPサーバーに接続します
ローカル、Docker Cloud、または選択したクラウドなど、どこにでもデプロイできます

地域の制限から解放される
Docker ネイティブ
開発価格

エコシステムの団結
Docker は、ビルディング エージェントの業界標準を推進しています
Docker は、すでに使い慣れた今日の最も強力なツールをシームレスに統合してサポートする、AI エージェントを構築する場所です。
AIエージェントを構築する最も簡単な方法はDockerから始まります
すぐに始めましょう。より早く学ぶ。
Docker Hub の一般的なモデル、オーケストレーション ツール、データベース、MCP サーバーを探索する
AI のパッケージ化、共有、スケーリング
Docker Model Runner は AI の実験とデプロイを簡素化し、LLM を OCI 準拠のコンテナに変換します
デフォルトで安全
統合されたゲートウェイとセキュリティ エージェントにより、チームは初日からコンプライアンス、監査可能性、本番環境への準備を維持できます。
オープンで拡張性
LangGraph、CrewAI、Spring AIなど、お使いのSDKをご利用ください。Docker はエコシステムの多様性を受け入れます。
新しいツールはありません。ただの新しいパワー。
同じワークフローを維持しながら、インテリジェントなアプリケーションに対応できます。
ローカルからクラウドへの切り替え
ローカルでビルドしてテストし、Docker Offload または選択したクラウドにデプロイ - インフラストラクチャによる支障はありません。
エージェント開発のための新しい Docker イノベーションが登場
Docker Offload
開発者は、すでに使用しているものと同じDocker Desktopを使用しながら、GPUを含むリモートDockerエンジンにアクセスできます。
さらに詳しく
MCP Gateway
MCP Gatewayは、統合コントロールプレーンとして機能し、複数のMCPサーバーをAIエージェント用の単一の一貫したエンドポイントに統合します。
さらに詳しく
Model Runner
Composeと統合し、クラウドでの実行を可能にし、より多くのLLMのサポートを拡大したため、エージェントアプリは初日からよりスマートでスムーズに実行できます。
さらに詳しく
Hub MCP サーバ
Docker Hub MCP Server は、Docker Hub API を LLM に接続する MCP (Model Context Protocol) サーバーです。
さらに詳しく
Gordon
当社の AI アシスタントである Gordon は、Docker の使い方の未来を体現しています。アプリのコンテナ化などのタスクを支援するためにすでに利用可能だったGordonは、このベータリリースに新しいDevSecOps機能を追加しました。
さらに詳しく
Compose
Docker Compose は、開発から本番環境までエージェントをシンプルにします
さらに詳しく