開発者は、IBM の最新のオープンソース Granite 4を発見して実行できるようになりました。Docker Hub モデル カタログから言語モデルを0し、Docker Model Runner を使用して数分でビルドを開始します。花崗岩 4。0 、エンタープライズ対応の強力なパフォーマンスと軽量なフットプリントを兼ね備えているため、ローカルでプロトタイプを作成し、自信を持って拡張できます。
花崗岩 4。0 ファミリーは、スピード、柔軟性、費用対効果を考慮して設計されており、生成AIアプリケーションの構築と展開をこれまで以上に簡単にします。
Docker Hubについて
Docker Hub は世界最大のコンテナー レジストリであり、高品質のコンテナー イメージを大規模に見つけて共有するために何百万人もの開発者から信頼されています。この伝統に基づいて、現在では開発者がローカル AI モデルを発見、管理、実行するための頼りになる場所にもなりつつあります。Docker Hubは、キュレーションされたローカルAIモデル・コレクションをホストし、OCIアーティファクトとしてパッケージ化され、すぐに実行できます。Docker Hub ではモデルを簡単にダウンロード、共有、アップロードできるため、コンテナ化されたアプリケーションと生成 AI の次の波の両方の中心ハブになります。
なぜ花崗岩 4なのか。Docker Hub の0 が重要
花崗岩 4。0 単なる言語モデルのセットではありません。大型モデルと比較しても驚異的なパフォーマンスと効率を実現する次世代ハイブリッド アーキテクチャを導入します。
- ハイブリッドアーキテクチャ。花崗岩 4。0 、線形スケーリング効率のマンバ2 と変圧器の精度を巧みに組み合わせています。一部のモデルでは、すべてのタスクにモデル全体を使用するのではなく、必要な「エキスパート」またはパラメーターのサブセットのみをアクティブにする、Mixture of Expert(MoE)戦略も活用しています。これにより、同様のサイズの従来のモデルと比較して、処理とメモリ使用量が 70% 以上削減されます。
- 「理論的に制約のない」コンテキスト。位置エンコーディングを削除することで、Gran 4ite は .0 、信じられないほど長いドキュメントを処理でき、コンテキストの長さは最大 128、000 トークンまでテストされます。コンテキストの長さはハードウェアによってのみ制限されるため、ドキュメント分析と検索拡張生成 (RAG) の強力なユースケースが開かれます。
- 目的に合ったサイズ。このファミリーには、 3B パラメータのマイクロ モデルから 32B パラメータのスモール モデルまで、いくつかのサイズがあり、特定のニーズに合わせてパフォーマンスとリソース使用量の完璧なバランスを選択できます
花崗岩の 4には何が入っていますか。0 家族
- サイズとターゲット(8ビット、バッチ=1、 128Kコンテキスト):
- H-スモール(合計32B、~9Bアクティブ): RAGとエージェントの主力製品。L4クラスのGPUで動作します。
- H-Tiny(合計7B、~1Bアクティブ): エッジ/ローカルの遅延に優しい。RTX 3060のような消費者グレードのGPU。
- H-マイクロ(3B、高密度): オンデバイスおよび同時エージェント用の超軽量。非常に低いRAMフットプリント。
- マイクロ(3B、高密度): マンバ2 サポートが利用できない場合の従来の高密度オプション。
- 実際には、これらのフットプリントは、アクセス可能なハードウェア上で有能なモデルを実行できることを意味し、ローカル開発と反復的なエージェント設計にとって大きなメリットとなります。
Docker Model Runner で数秒で実行
Docker Model Runner は、ラップトップ開発から CI およびクラウドまで、OpenAI 互換の API を使用してローカル モデルを実行するための移植可能で再現可能な方法を提供します。
# Example: start a chat with Granite 4.0 Micro
docker model run ai/granite-4.0-micro
別のサイズがお好みですか?御影石4を選びます。モデルカタログでバリアント0し、同じコマンドスタイルで実行します。ランナー、チャットモード、API の使用を有効にするには、モデルランナーガイドを参照してください。
構築できるもの(高速)
花崗岩は軽量で多用途な性質があるため、幅広い用途に最適です。Docker Model Runner と組み合わせると、次のようなプロジェクトを簡単に構築およびスケーリングできます。
- 文書の要約と分析: 長い法的契約、技術マニュアル、または研究論文を簡単に処理および要約します。
- よりスマートな RAG システム: 外部のナレッジ ベース、CRM、またはドキュメント リポジトリから情報を取得する強力なチャットボットとアシスタントを構築します。
- 複雑なエージェントワークフロー: コンパクトなモデルを活用して、複数の AI エージェントを同時に実行し、高度な多ステップ推論タスクを実現します。
- エッジ AI アプリケーション: Granite 4をデプロイします。0クラウドに依存しないオンデバイスチャットボットやスマートアシスタント用のリソースに制約のある環境で小型です。
オープンソース AI コミュニティに参加する
このパートナーシップは、開発者が次世代の AI アプリケーションを構築できるようにすることを目的としています。花崗岩 4。0 モデルは、寛容な Apache 2で利用できます。ライセンス0 、自由にカスタマイズして商用的に使用できます。
Docker Hub のモデルを調べて、今すぐ構築を開始することをお勧めします。ローカルモデルを実行するための開発者エクスペリエンスを向上させるには、Docker Model Runnerリポジトリにアクセスしてください。
GitHubリポジトリにアクセスして参加してください。
- リポジトリにスターを付けてサポートを示す
- フォークして実験する
- 独自の改善点で貢献することを検討してください
花崗岩 4。0 ここにあります。それを実行し、それを使用して構築し、Granite 4で何が可能かを確認してください。0 と Docker Model Runner を使用します。