エリック・カーティン
プリンシパルソフトウェアエンジニア、Docker社
「Eric」のその他のアイテム
vLLM対0を発表します。12。0、ミニストラル3とディープシークV3。Docker Model Runner の2
ミニストラル 3 とDeepSeek-V3を実行。2 Docker Model Runner と vLLM 0で使っています。12。最新のオープンウェイトモデルは発売次第、すぐに試乗してください。
今すぐ読む
Model RunnerでローカルAIワークフローをレベルアップしましょう
Docker Model Runnerを使って、ほぼすべてのGPUでマルチモーダルモデルを動かす方法を学び、モデル配布を効率化し、チーム間のコラボレーションを簡素化しましょう。
ビデオを見る
Docker Model Runnerは高スループット推論のためにvLLMを統合
新作:Docker Model RunnerでのvLLM。Dockerを用いたNVIDIA GPUの自動エンジンルーティングを持つセーフテンサーモデルの高スループット推論。
今すぐ読む
より豊富な「docker model run」エクスペリエンスの導入
Docker モデル実行のための新しい対話型プロンプト: readline スタイルの編集、履歴、複数行入力、応答を停止するための Ctrl+C。今すぐお試しください!
今すぐ読む
Docker Model Runner コミュニティの活性化に参加してください!
Docker Model Runner は GA であり、ほぼすべての GPU で Vulkan をサポートするすべての Docker バージョンで提供されました。統合リポジトリにスターを付け、フォークし、貢献します。
今すぐ読む
あらゆる GPU でローカル AI のロックを解除: Vulkan サポートを備えた Docker Model Runner
Docker Model Runnerを使用して、より多くのGPUでローカルLLMを実行します。新しいVulkanサポートにより、AMD、Intel、および統合GPUが高速化され、CPUフォールバックでハードウェアが自動検出されます。
今すぐ読む
IBM Granite 4.0Docker Hubでモデルが利用可能になりました
開発者は、IBM の最新のオープンソース Granite 4を発見して実行できるようになりました。Docker Hub モデル カタログから言語モデルを0 し、Docker Model Runner を使用して数分でビルドを開始します。花崗岩 4。0 、エンタープライズ対応の強力なパフォーマンスと軽量なフットプリントを兼ね備えているため、ローカルでプロトタイプを作成し、自信を持って拡張できます。花崗岩 4。0 ファミリーは、スピードと柔軟性を重視して設計されています,...
今すぐ読む
Llama.cpp がアップグレードされる: 再開可能なモデルのダウンロード
新機能: llama.cpp で再開可能な GGUF ダウンロード。Docker Model Runnerがモデルのバージョン管理、共有可能、OCIネイティブ化を行い、開発から本番環境までのシームレスなプロセスを実現する方法について説明します
今すぐ読む
コンテナを超えて:llama.cppがDocker Hubから直接GGUFモデルを取得するようになりました
llama.cpp が AI モデルの強力でバージョン管理された一元化されたリポジトリとして Docker Hub をどのように使用しているかについて説明します。
今すぐ読む
vLLM対0を発表します。12。0、ミニストラル3とディープシークV3。Docker Model Runner の2
ミニストラル 3 とDeepSeek-V3を実行。2 Docker Model Runner と vLLM 0で使っています。12。最新のオープンウェイトモデルは発売次第、すぐに試乗してください。
今すぐ読む
Docker Model Runnerは高スループット推論のためにvLLMを統合
新作:Docker Model RunnerでのvLLM。Dockerを用いたNVIDIA GPUの自動エンジンルーティングを持つセーフテンサーモデルの高スループット推論。
今すぐ読む
より豊富な「docker model run」エクスペリエンスの導入
Docker モデル実行のための新しい対話型プロンプト: readline スタイルの編集、履歴、複数行入力、応答を停止するための Ctrl+C。今すぐお試しください!
今すぐ読む
Docker Model Runner コミュニティの活性化に参加してください!
Docker Model Runner は GA であり、ほぼすべての GPU で Vulkan をサポートするすべての Docker バージョンで提供されました。統合リポジトリにスターを付け、フォークし、貢献します。
今すぐ読む
あらゆる GPU でローカル AI のロックを解除: Vulkan サポートを備えた Docker Model Runner
Docker Model Runnerを使用して、より多くのGPUでローカルLLMを実行します。新しいVulkanサポートにより、AMD、Intel、および統合GPUが高速化され、CPUフォールバックでハードウェアが自動検出されます。
今すぐ読む
IBM Granite 4.0Docker Hubでモデルが利用可能になりました
開発者は、IBM の最新のオープンソース Granite 4を発見して実行できるようになりました。Docker Hub モデル カタログから言語モデルを0 し、Docker Model Runner を使用して数分でビルドを開始します。花崗岩 4。0 、エンタープライズ対応の強力なパフォーマンスと軽量なフットプリントを兼ね備えているため、ローカルでプロトタイプを作成し、自信を持って拡張できます。花崗岩 4。0 ファミリーは、スピードと柔軟性を重視して設計されています,...
今すぐ読む
Llama.cpp がアップグレードされる: 再開可能なモデルのダウンロード
新機能: llama.cpp で再開可能な GGUF ダウンロード。Docker Model Runnerがモデルのバージョン管理、共有可能、OCIネイティブ化を行い、開発から本番環境までのシームレスなプロセスを実現する方法について説明します
今すぐ読む
コンテナを超えて:llama.cppがDocker Hubから直接GGUFモデルを取得するようになりました
llama.cpp が AI モデルの強力でバージョン管理された一元化されたリポジトリとして Docker Hub をどのように使用しているかについて説明します。
今すぐ読む
