Docker Hubは急速にAIモデルの拠点となりつつあり、何百万人もの開発者にサービスを提供し、軽量なエッジモデルから高性能LLMまで、すべてOCIアーティファクトとしてパッケージ化された厳選されたラインナップをまとめています。
本日は、最新世代の軽量で最先端のオープンモデル、 ジェマ 4を歓迎できることを嬉しく思います。Geminiと同じ技術を基盤に、Gemma 4 は低消費電力から高性能なサーバー性能までスケールする3つのアーキテクチャを導入します。
モデルをOCIアーティファクトとしてパッケージ化することで、モデルはコンテナのように振る舞います。バージョン管理が可能で共有可能で、カスタムツールチェーンは不要に即座にデプロイ可能です。Docker Hubから既成モデルを取得し、独自のモデルをプッシュし、任意のOCIレジストリと統合し、既存のCI/CDパイプラインに直接セキュリティ、アクセス制御、自動化のツールを使えばすべてを接続できます。
そして、これはほんの始まりに過ぎません。今後数週間で、Gemmaの 4 サポートがDocker Model Runnerに導入され、Hubでモデルを発見するだけでなく、Dockerに期待されるのと同じシンプルさで直接実行、管理、デプロイが可能になります。
Docker Hubの拡大するGenAIカタログには、すでにIBM Granite、Llama、Mistral、Phi、SolarLLMといった人気モデルに加え、JupyterHubやH2O.ai といったアプリが含まれています。さらに、推論、最適化、オーケストレーションのための重要なツールも備えています。
DockerがGemma 4にもたらすもの
Gemma 4 は効率的で高性能なモデルができることを拡張しています。Dockerは、どこでも簡単に実行、共有、スケールできる機能を提供します。
- エッジで効率的に動作:小型のGemma 4 バリアントはオンデバイス性能に最適化されています。Dockerはノートパソコン、エッジデバイス、ローカル環境間での一貫した展開を可能にします。
- パフォーマンスを簡単にスケールアップ:スパーなアーキテクチャから高密度なアーキテクチャまで、コンテナのようにどんなモデルでも実行できるため、クラウドやオンプレミスのインフラ間で簡単にスケールできます。
- 始めるためのコマンドは一つ:ジェマ 4 は一つのコマンドで行えます:
docker model pull gemma4
専用のダウンロードツールはありません。カスタム認証フローはありません。すでに使っているプル、タグ、プッシュ、デプロイのワークフローと同じだけです。
Gemma 4 をDocker Hubに導入することで、親しみやすい本番対応のワークフローを持つ強力なモデルを手に入れることができます。
ジェマ 4の新しい情報は?
Gemma 4 は「小型」モデルができることを再定義し、複数のサイズやユースケースに最適化されたアーキテクチャを導入しています。
- 小型かつ効率的な(E2B、E4B): オンデバイス性能を重視し、高スループットと低メモリ使用を重視して設計されています。
- スパースリー・アクティベーテッド(26B A4B): 専門家の混合設計は、小型モデルの速度で大規模モデルの品質を提供します。
- 旗艦型の密度(31B): 長文脈推論のための 256K文脈ウィンドウを持つ高性能モデル。
主な能力には、マルチモーダル対応(テキスト、画像、音声)、「思考トークン」を用いた高度な推論、強力なコーディングおよび関数呼び出し能力が含まれます。
技術仕様
|
モデル名 |
種類 |
トータルパラム |
入力モダリティ |
コンテキストウィンドウ |
|
ジェマ 4 E2B |
密度(小) |
5。1B |
テキスト、ビジョン、オーディオ |
128K |
|
ジェマ 4 E4B |
密度(小) |
8。0B |
テキスト、ビジョン、オーディオ |
128K |
|
ジェマ 4 26B A4B |
MoE |
26。8B (3.8Bアクティブ) |
テキスト、ビジョン |
256K – 512K |
|
ジェマ 4 31B |
密度 |
31。3B |
テキスト、ビジョン |
256K – 512K |
Docker HubでAIの未来を築こう
Gemma 4 のDocker Hub登場は、Docker HubをAIモデルの発見、共有、運用に最適な場所にするという私たちのコミットメントを改めて強調しました。音声起動型モバイルアシスタントでも大規模な文書検索システムでも、Docker Hubは適切なモデルを簡単に見つけ、即座に取得し、どこでも実行できるようにします。
準備はいい?Docker Hubにアクセスしてモデルを取得できます
Docker Model Runnerコミュニティに参加しませんか?ぜひ私たちのGitHubリポジトリにスター、フォーク、貢献をお願いします