Docker Model RunnerでローカルでClaudeコードを実行

投稿日 Jan 26, 2026

最近、 OpenCodeとDocker Model Runner を組み合わせて、プライバシーを重視しコスト効率の高いAIコーディングセットアップを実現する方法を紹介しました。今日は同じアプローチをAnthropicのエージェントコーディングツールである Claude Codeにも導入します。

この記事では、Claude CodeをDocker Model Runnerで設定する方法を解説し、データ、インフラ、支出を完全にコントロールできるようにします。

Claude コード DMR フィギュア 1

図 1:gpt-ossのようなローカルモデルを用いてClaude Codeを動かす方法

Claude Code とは何ですか?

Claude Code はAnthropicのエージェントコーディングのためのコマンドラインツールです。端末内に存在し、コードベースを理解し、ルーチンタスクの実行、複雑なコードの説明、自然言語コマンドによるgitワークフローの処理などで、コーディングを速くサポートします。

Docker Model Runner(DMR)は 、大規模言語モデルをローカルで実行・管理することを可能にします。Anthropic互換APIを公開し、Claude Codeのようなツールと簡単に連携できます。

Claude Codeをインストールする

Claudeコードをインストール:
macOS / Linux:

curl -fsSL https://claude.ai/install.sh | bash

Windows PowerShell:

irm https://claude.ai/install.ps1 | iex

Docker Model RunnerでのClaudeコードの使用

Claude CodeはANTHROPIC_BASE_URL環境変数を通じてカスタムAPIエンドポイントをサポートしています。Docker Model RunnerはAnthropic互換APIを公開しているため、両者の統合は簡単です。

Docker Desktopユーザーへの注意事項:
Docker Model RunnerをDocker Desktop経由で運用している場合は、TCPアクセスが有効になっていることを確認してください:

docker desktop enable model-runner --tcp

有効化されると、Docker Model Runnerは以下のURLでアクセスできるようになります http://localhost:12434.

コンテキストサイズの増加

コーディング作業では、コンテキストの長さが重要です。glm-47-flashのようなモデルは、qwen3-coderdevstral-small-2 デフォルトで K のコンテキスト128、GPT-OSS はデフォルトで 4、096 トークンを備えています。

Docker Model Runnerは、コンテキストサイズを拡大したモデルを簡単に再パッケージ化できるようにします:

docker model pull gpt-oss
docker model package --from gpt-oss --context-size 32000 gpt-oss:32k

パッケージ化したら、Claude Codeと一緒に使ってください:

ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32k
ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss "Describe this repo."

それです。Claude CodeはすべてのリクエストをローカルのDocker Model Runnerインスタンスに送信します。

Docker Model Runnerを使ってgpt-ossでローカルでClaudeコードを実行

実際の様子は以下の通りです:

Claude コード DMR フィギュア 2

図 2:Docker Model RunnerによるClaude Codeは、すべてをローカルで管理します

$ docker model pull gpt-oss

$ docker model package --from gpt-oss --context-size 32000 gpt-oss:32k

$ ANTHROPIC_BASE_URL=http://localhost:12434 claude --model gpt-oss:32k "Describe this repo."

 ▐▛███▜▌   Claude Code v2.1.12
▝▜█████▛▘  gpt-oss:32k · API Usage Billing
  ▘▘ ▝▝    ~/workspace/model-runner

❯ Describe this repo.

⏺ Read(README.md)
  ⎿  Read 423 lines

⏺ Docker Model Runner (DMR)
  - A Go-based tool that lets developers pull, run, and serve AI models 
    directly from Docker Hub or any OCI-compatible registry.
  - Consists of two main components:
    a. model-runner – a server/daemon that manages model lifecycle, 
       inference, and metrics.
    b. model-cli – a CLI plugin (docker model) that communicates with 
       the server, listing models, pulling new ones, and executing inference.

  - Supports multiple inference backends: llama.cpp, vLLM, and others.
  - Built with Docker Desktop in mind, but also works with Docker Engine 
    on Linux.
  - Provides a REST API for model management and inference, plus a 
    /metrics endpoint for Prometheus-style monitoring.

Claude Codeはリポジトリを読み取り、その構造を推測し、正確な要約を提供しつつ、コードを完全にローカルマシン上に保持します。

Claude Codeから送られるリクエストを監視してください

Claude CodeがDocker Model Runnerに正確に何を送信しているのか見たいですか?docker model requests コマンドを使ってください:

docker model requests --model gpt-oss:32k | jq .
Claude コード DMR フィギュア 3

図 3:ClaudeコードからLLMへのリクエストを監視

これにより生のリクエストが出力され、Claude Codeがモデルとどのように通信しているかを理解し、互換性の問題をデバッグするのに役立ちます。

持続的にする
便宜上、シェルプロファイルで環境変数を設定してください:

# Add to ~/.bashrc, ~/.zshrc, or equivalent
export ANTHROPIC_BASE_URL=http://localhost:12434

そして単純に実行します:

claude --model gpt-oss:32k "Describe this repo."

参加方法

Docker Model Runnerの強みはコミュニティにあり、成長の余地は常にあります。参加するには:

  • リポジトリに星をつける: Docker Model Runnerリポジトリに星をつけてサポートを示してください。
  • アイデアを寄せてください: 問題を作成したり、プルリクエストを提出したりしてください。皆さんのアイデアを楽しみにしています!
  • 広めよう: DockerでAIモデルを動かすことに興味がある友人や同僚に伝えましょう。

私たちは Docker Model Runner のこの新しい章に非常に興奮しており、一緒に何を構築できるかを見るのが待ちきれません。さあ、仕事に取り掛かりましょう!

詳細情報

関連記事