ClawdbotとDocker Model Runner、プライベートなパーソナルAIアシスタント

投稿日 Jan 26, 2026

パーソナルAIアシスタントは、メールやカレンダーの管理からスマートホームの自動化まで、私たちの日常生活の管理方法を変革しています。しかし、これらのアシスタントが私たちのプライベートデータへのアクセスが増えるにつれて、プライバシー、データレジデンシー、長期的なコストに関する懸念が過去最高となっています。

ClawdbotDocker Model Runner(DMR)を組み合わせることで、データ、インフラ、支出を完全にコントロールしつつ、高性能でエージェント型のパーソナルアシスタントを構築できます。

この記事では、ClawdbotをDocker Model Runnerを活用する設定方法を解説し、プライバシー第一のパーソナルインテリジェンスアプローチを実現します。

クロウドボットのフィギュア 1

ClawdbotとDocker Model Runnerとは何ですか?

Clawdbot は、あなたがすでにいる場所に住むために設計されたセルフホスト型のAIアシスタントです。ブラウザに限定されたボットとは異なり、Clawdbotは Telegram、WhatsApp、Discord、Signalなどのメッセージングアプリと直接連携します。それは、あなたのデバイスやサービス全体で現実世界のアクションを実行することができる、積極的なデジタルコワーカーとして機能します。

Docker Model Runner(DMR) は、大規模言語モデル(LLM)をOCIアーティファクトとして実行・管理するためのDockerのネイティブソリューションです。OpenAI互換APIを公開し、標準的なAIエンドポイントをサポートするあらゆるツールのプライベート「ブレイン」として機能します。

これらが協力して、ウェブ閲覧、ファイル管理、メッセージへの返信ができる統合アシスタントを作り、機密データを第三者クラウドに送信することなく対応できます。

Clawdbot + DMRスタックの利点

プライバシー・バイ・デザイン

「プライバシー第一」のセットアップでは、アシスタントのメモリ、メッセージ履歴、ファイルはハードウェア上に残ります。Docker Model Runnerはモデル推論を分離します。つまり:

  • 第三者のトレーニングなし: あなたの個人メールやスケジュールは将来の商用モデルのトレーニングには使われません。
  • サンドボックスによる実行: モデルは孤立した環境で動作し、ホストシステムを保護します。
  • データ主権: アシスタントが使える「スキル」(ウェブ閲覧、ファイルアクセス)を正確に決めます。

コスト管理とスケーリング

クラウドベースのエージェントは、「長期記憶」や「プロアクティブサーチ」を使うと、膨大なトークンを消費するため、コストが高くなることが多いです。Docker Model Runnerでは、推論は自分のGPUやCPU上で動作します。一度モデルが引き出されると、 トークンごとの手数料はかかりません。Clawdbotが何千通もの未読メールを要約したり、複雑なトピックを何時間も調べたりしても、月末の突然のAPI請求を気にする必要はありません。

Docker Model RunnerでClawdbotを設定

Clawdbot構成の変更

Clawdbotは柔軟な構成システムを用いて、どのモデルや提供者が推論を駆動するかを定義します。オンボーディングウィザード(clawdbot onboard)が標準的なセットアップ経路ですが、Clawdbotを手動でプライベートDockerインフラストラクチャに指定することもできます。

プロバイダー構成は以下で定義できます:

  • グローバル構成: ~/.config/clawdbot/config.json
  • ワークスペース固有の設定: アクティブなワークスペースのルートにclawdbot.json。

Docker Model RunnerでClawdbotを使う

この2つを橋渡しするには、設定をDMRサーバーに更新してください。Docker Model Runnerがデフォルトアドレスである http://localhost:12434/v1で動作していると仮定して。

config.jsonは以下のように更新されるはずです:

{
  "models": {
    "providers": {
      "dmr": {
        "baseUrl": "http://localhost:12434/v1",
        "apiKey": "dmr-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-oss:128K",
            "name": "gpt-oss (128K context window)",
            "contextWindow": 128000,
            "maxTokens": 128000
          },
          {
            "id": "glm-4.7-flash:128K",
            "name": "glm-4.7-flash (128K context window)",
            "contextWindow": 128000,
            "maxTokens": 128000
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "dmr/gpt-oss:128K"
      }
    }
  }
}

この構成はClawdbotに外部APIを回避し、すべての「思考」をプライベートモデルにルーティングするよう指示します。

Dockerデスクトップユーザーへの注意事項:
Clawdbotがランナーと通信できるようにTCPアクセスが有効であることを確認しましょう。端末で以下のコマンドを実行してください:
Docker Desktop Enable Model-Runner –TCP

パーソナルアシスタントに推奨されるモデル

コーディングモデルが論理に焦点を当てるのに対し、パーソナルアシスタントモデルは指示に従う能力、ツールの使用能力、長期記憶のバランスが必要です。

モデル

ベスト・フォー

DMRプルコマンド

GPT-OSS

複雑な推論とスケジューリング

Docker model pull GPT-OSS

GLM-4。7-フラッシュ

迅速なコーディング支援とデバッグ

Docker model pull glm-4.7-フラッシュ

QWEN3-コーダー

エージェントコーディングワークフロー

Docker model pull qwem3-coder

エコシステムからモデルを引き出す

DMRは Hugging Face から直接モデルを引き出し、自動的にOCIアーティファクトに変換できます:

docker model pull huggingface.co/bartowski/Llama-3.3-70B-Instruct-GGUF

コンテキスト、長さ、そして「魂」

パーソナルアシスタントにとって、コンテキストの長さは非常に重要です。Clawdbotは SOUL.md ファイル(性格を定義)と メモリーヴォル ト(設定を保存)に依存しています。

モデルのデフォルトのコンテキストが小さすぎると、会話の途中であなたの指示を「忘れて」しまいます。DMRを使って、より大きなコンテキストウィンドウを持つモデルを再パッケージできます:

docker model package --from llama3.3 --context-size 128000 llama-personal:128k

パッケージ化後、Clawdbotの設定でllama-personal:128kを参照し、アシスタントがリクエストの全履歴を常に記憶できるようにします。

Clawdbotを活用する:スケジュールタスクの実行 

ClawdbotとDMRを動かせば、単なるチャットを超えて進められます。「モーニングブリーフィング」タスクを設定しましょう。

  1. モデルを検証してください: docker model ls(モデルがアクティブであることを確認)。
  2. 魂の初期化: clawdbot init-soulを実行して、アシスタントがどのように話すべきかを定義してください。
  3. タスクを割り当てる:
    「クロウドボット、毎朝 8時:00 に未読メールをチェックし、 3 最優先事項をまとめて、テレグラムで要約を送ってくれ。」

ClawdbotはあなたのプライベートなDocker Model Runnerに接続しているため、メールを解析し、スケジュールを個別に推測できます。データはマシンから一切出ません。選んだメッセージアプリを通じて、スマートフォンに便利な通知が届くだけです。

参加方法

ClawdbotとDocker Model Runnerのエコシステムは急速に成長しています。こちらがあなたにお手伝いできる方法をご紹介します:

  • モデルアーティファクトの共有: 最適化されたOCIモデルパッケージを Docker Hub にプッシュし、他の人が使えるようにしましょう。
  • コミュニティに参加しよう: Docker Model RunnerのGitHubリポジトリを訪れてみてください。

関連記事