DockerがNVIDIAと提携し、AI/MLアプリケーションの構築と実行をサポート

GenAIとLLMの領域は民主化され、かつては純粋にAI/ML開発者の領域にあったタスクが、通常のアプリケーション開発者によって日常的な製品やビジネスロジックに推論されなければなりません。 これにより、銀行、セキュリティ、ヘルスケアなど、ジェネレーティブテキスト、画像、動画を使った新しい製品やサービスが生まれています。 さらに、GenAIの潜在的な経済的影響は大きく、世界経済に年間数兆ドルを追加する可能性があると推定されています。 

Docker は、ジェネレーティブ AI をあらゆるビジネスに利用できるようにするエンドツーエンドのクラウドネイティブ ソフトウェア プラットフォームである NVIDIA AI Enterprise ソフトウェア プラットフォームを構築、テスト、実行、展開するための理想的な方法を開発者に提供します。 このプラットフォーム は、Dockerコンテナで使用でき、マイクロサービスとしてデプロイできます。 これにより、チームは、パフォーマンスが単なる目標ではなく、必要不可欠な最先端のAIアプリケーションに集中できます。

今週の NVIDIA GTC グローバル AI カンファレンスで、 NVIDIA AI Enterprise の最新リリースが発表され、 NVIDIA AI 基盤モデルNVIDIA NeMo フレームワーク、および 発表されたばかりの NVIDIA NIM 推論マイクロサービスを使用して、パフォーマンスの向上と効率的なランタイムを実現するカスタム生成 AI モデルの構築と展開に必要なツールとフレームワークが企業に提供されます。 

このブログ記事では、現在お客様が利用できるDockerリソースの一部をまとめています。

Docker nvidia 2400x1260 1

Docker Hub

Docker Hub は、 PyTorchTensorFlowLangchainHugging FaceOllamaなどの主要なフレームワークやツールを含む、AI/ML開発に重点を置いたコンテナイメージの広範なコレクションを備えた、世界最大のコンテナイメージのリポジトリです。 AI/ML関連の画像に対する プルリクエストは 100 00万件を超え ており、開発者コミュニティにとってのDocker Hubの重要性は自明です。 AI/MLアプリケーションの開発を簡素化するだけでなく、イノベーションを民主化し、世界中の開発者がAIテクノロジーにアクセスできるようにします。

NVIDIA の Docker Hub ライブラリ は、アクセラレーテッド コンピューティングの力を活用し、 NVIDIA の API カタログ を補完する 一連のコンテナー イメージ を提供します。月間アクティブIP数約 27 00万件、前年比 47%増という驚異的な伸びを示すDocker Hubの膨大なオーディエンスは、これらのコンテナイメージを使用してAIのパフォーマンスを向上させることができます。 

Docker Hubの広範なリーチは、月間 26 億という驚異的なイメージプルによって強調されており、継続的な成長とイノベーションの大きな可能性を示唆しています。

Docker Desktop と NVIDIA AI Workbench

Windows と Mac の Docker Desktop は、NVIDIA AI Workbench 開発者にローカル マシンとリモート マシンでのスムーズなエクスペリエンスを提供するのに役立ちます。 

NVIDIA AI Workbench は、開発者が PC やワークステーションで AI や機械学習モデルを作成、テスト、カスタマイズし、データセンターやパブリック クラウドに拡張できる使いやすいツールキットです。 インタラクティブな開発ワークフローを簡素化すると同時に、初心者を躊躇させたり、専門家を頓挫させたりする技術的なタスクを自動化します。 AI Workbench を使用すると、ワークステーションのセットアップと構成が迅速かつ簡単になります。 サンプルプロジェクトも含まれているため、開発者は独自のデータやユースケースをより迅速に開始できます。   

Docker エンジニアリング チームは NVIDIA と協力して、WSL2への AI Workbench インストールの最近の改善を通じて、NVIDIA GPU アクセラレーション プラットフォームでのユーザー エクスペリエンスを向上させています。

NVIDIA AI Workbench をローカルで使用してジェネレーティブ イメージ モデルを調整し、より正確なプロンプト結果を生成する方法をご覧ください。

近い将来のアップデートでは、AI Workbench は Container Device Interface (CDI) を使用して、ローカルおよびリモートの GPU 対応環境を管理します。 CDIは、NVIDIAとIntelが主導するCNCFが後援するプロジェクトであり、コンテナ内のNVIDIA GPUを公開して、複雑なデバイス構成とCUDA互換性チェックをサポートします。 これにより、研究、シミュレーション、GenAI、MLアプリケーションがローカルおよびクラウドネイティブのGPUリソースを利用する方法が簡素化されます。  

Docker Desktop 4.29 (Moby 25を含む) では、開発者は デーモンで CDI サポートを構成し 、CDI デバイスのサポートを介して –device オプション を使用して、実行中のコンテナーですべての NVIDIA GPU を簡単に使用できるようにすることができます。

docker run --device nvidia.com/gpu=all <image> <command>

Docker GenAI Stackを使用したLLMを利用したアプリ

Docker GenAI スタックにより、チームは NVIDIA アクセラレーテッド コンピューティングを AI ワークフローに簡単に統合できます。このスタックは、シームレスなコンポーネント統合のために設計されており、Docker Desktop for Windowsを使用して開発者のラップトップにセットアップできます。 NVIDIA GPU と NVIDIA NIM のパワーを提供して LLM 推論を高速化し、アプリケーションのパフォーマンスを目に見える形で向上させます。 開発者は、事前にパッケージ化された 5 つのアプリケーションを実験および変更して、スタックの機能を活用できます。

Docker Desktop で AI/ML 開発を加速

Docker Desktop は、開発者のラップトップで高速化された機械学習開発環境を容易にします。 コンテナーの NVIDIA GPU サポートを活用することで、開発者は PyTorch や TensorFlow などの Docker Hub を介して配布されるツールを活用して、プロジェクトの速度を大幅に向上させることができ、Docker 上の NVIDIA テクノロジによって可能になる効率の向上を強調することができます。

ソフトウェアサプライチェーンの保護

ソフトウェアサプライチェーンの保護は、本番環境で確実かつ安全に実行できるMLアプリケーションを継続的に開発する上で重要な側面です。 Docker Hubの検証済みで信頼できるコンテンツを使用して構築し、Docker Scoutからの実用的な洞察を通じてセキュリティの問題を常に把握することは、ソフトウェアサプライチェーン全体のセキュリティ体制を改善するための鍵となります。これらのベスト プラクティスに従うことで、お客様はセキュリティの問題が運用環境に発生するリスクを最小限に抑え、運用環境で実行されているアプリケーションの全体的な信頼性と整合性を向上させることができます。 この包括的なアプローチにより、Docker GenAI Stackで構築されたMLアプリケーションの開発が加速されるだけでなく、LLMとインターフェイスするHubをソースとするイメージ上に構築する際に、より安全なイメージが可能になります。 ラングチェーン. 最終的に、これにより、開発者は、アプリケーションが安全で信頼性の高い基盤の上に構築されているという自信を得ることができます。

"幅広い開発者から AI への関心が爆発的に高まっているため、NVIDIA と協力して、AI アプリケーションの構築を加速するツールを構築できることを嬉しく思います。 DockerとNVIDIAを取り巻くエコシステムは、長年にわたって強力な基盤を構築しており、これにより、エンタープライズAI/ML開発者の新しいコミュニティがGPUアクセラレーションアプリケーションを探索および構築できるようになります。」

Justin Cormack 氏 (最高技術責任者、Docker)

"NVIDIA AI Workbench のようなエンタープライズ アプリケーションは、Docker Desktop がローカル システム上で提供する合理化から大きな恩恵を受けることができます。 Docker チームとの協力は、Windows で GPU を管理するための AI Workbench のユーザー エクスペリエンスの向上に役立ちます。」

Tyler Whitehouse 氏 (プリンシパル プロダクト マネージャー、NVIDIA)

さらに詳しく 

NVIDIA テクノロジで Docker Desktop と Docker Hub を活用することで、開発者は AI の革新的な力を活用し、スキルを伸ばし、可能性の限界を押し広げる革新的なアプリケーションを提供する機会をつかむことができます。 NVIDIA の Docker Hub ライブラリNVIDIA AI Enterprise をチェックして、独自の AI ソリューションを始めましょう。

フィードバック

「DockerがNVIDIAと提携してAI / MLアプリケーションの構築と実行をサポートする」に関する0の考え