Docker モデルランナー
-
2025年10月13日
新しい NVIDIA DGX Spark 上の Docker Model Runner: AI をローカルで開発するための新しいパラダイム
NVIDIA DGX™ Spark のサポートを Docker Model Runner に導入できることを嬉しく思います。新しい NVIDIA DGX Spark は驚異的なパフォーマンスを提供し、Docker Model Runner によりアクセスできるようになります。Model Runner を使用すると、すでに信頼しているのと同じ直感的な Docker エクスペリエンスを使用して、ローカルマシン上でより大きなモデルを簡単に実行および反復処理できます。この中で...
今すぐ読む
-
2025年10月9日
LoRAの説明:Dockerによるより速く、より効率的な微調整
LoRA は、ベース モデルをフリーズし、トレーニング可能なアダプターを追加して、既存の知識を上書きすることなく、事前トレーニングされたモデルに新しい動作を教える方法です。
今すぐ読む
-
2025年10月8日
あらゆる GPU でローカル AI のロックを解除: Vulkan サポートを備えた Docker Model Runner
Docker Model Runnerを使用して、より多くのGPUでローカルLLMを実行します。新しいVulkanサポートにより、AMD、Intel、および統合GPUが高速化され、CPUフォールバックでハードウェアが自動検出されます。
今すぐ読む
-
2025年10月6日
IBM Granite 4.0Docker Hubでモデルが利用可能になりました
開発者は、IBM の最新のオープンソース Granite 4を発見して実行できるようになりました。Docker Hub モデル カタログから言語モデルを0 し、Docker Model Runner を使用して数分でビルドを開始します。花崗岩 4。0 、エンタープライズ対応の強力なパフォーマンスと軽量なフットプリントを兼ね備えているため、ローカルでプロトタイプを作成し、自信を持って拡張できます。花崗岩 4。0 ファミリーは、スピードと柔軟性を重視して設計されています,...
今すぐ読む
-
2025年10月6日
Llama.cpp がアップグレードされる: 再開可能なモデルのダウンロード
新機能: llama.cpp で再開可能な GGUF ダウンロード。Docker Model Runnerがモデルのバージョン管理、共有可能、OCIネイティブ化を行い、開発から本番環境までのシームレスなプロセスを実現する方法について説明します
今すぐ読む
-
2025年10月2日
Docker Offload と Unsloth を使用したローカル モデルの微調整
Docker Offload と Unsloth を使用してローカルでモデルを微調整する方法と、小さなモデルが現実世界の問題の実用的なアシスタントになる方法を学びます。
今すぐ読む
-
2025年9月25日
Docker + Promptfooを使用してモデルとMCPをローカルで実行、テスト、評価する
promptfoo と Docker が、開発者がモデルの比較、MCP サーバーの評価、さらには LLM レッドチームの実行にどのように役立つかをご覧ください。
今すぐ読む
-
2025年9月19日
コンテナを超えて:llama.cppがDocker Hubから直接GGUFモデルを取得するようになりました
llama.cpp が AI モデルの強力でバージョン管理された一元化されたリポジトリとして Docker Hub をどのように使用しているかについて説明します。
今すぐ読む