イグナシ・ロペス・ルナ
シニアソフトウェアエンジニア、Docker社
「Ignasi」のその他のアイテム
LoRAの説明:Dockerによるより速く、より効率的な微調整
LoRA は、ベース モデルをフリーズし、トレーニング可能なアダプターを追加して、既存の知識を上書きすることなく、事前トレーニングされたモデルに新しい動作を教える方法です。
今すぐ読む
Docker Offload と Unsloth を使用したローカル モデルの微調整
Docker Offload と Unsloth を使用してローカルでモデルを微調整する方法と、小さなモデルが現実世界の問題の実用的なアシスタントになる方法を学びます。
今すぐ読む
ハイブリッドAIは未来ではなく、ここにあります(そして、ミニオンプロトコルを使用してDockerで実行されます)
Docker Compose、Model Runner、および MinionS プロトコルを使用してハイブリッド モデルをデプロイする方法について説明します。
今すぐ読む
ローカルLLMによるツールコール:実践的評価
Dockerのこの慎重にテストされたリーダーボードを使用して、エージェントアプリケーションで使用するツール呼び出しに最適なローカルLLMを見つけてください。
今すぐ読む
Docker Model Runner で Gemma 3 を実行する: 完全にローカルな GenAI 開発者エクスペリエンス
Docker Model Runner を使用して Gemma 3 モデルをローカルで実行する方法と、コメント処理システムを使用して実用的なケース スタディとして探ります。
今すぐ読む
LoRAの説明:Dockerによるより速く、より効率的な微調整
LoRA は、ベース モデルをフリーズし、トレーニング可能なアダプターを追加して、既存の知識を上書きすることなく、事前トレーニングされたモデルに新しい動作を教える方法です。
今すぐ読む
Docker Offload と Unsloth を使用したローカル モデルの微調整
Docker Offload と Unsloth を使用してローカルでモデルを微調整する方法と、小さなモデルが現実世界の問題の実用的なアシスタントになる方法を学びます。
今すぐ読む
ハイブリッドAIは未来ではなく、ここにあります(そして、ミニオンプロトコルを使用してDockerで実行されます)
Docker Compose、Model Runner、および MinionS プロトコルを使用してハイブリッド モデルをデプロイする方法について説明します。
今すぐ読む
ローカルLLMによるツールコール:実践的評価
Dockerのこの慎重にテストされたリーダーボードを使用して、エージェントアプリケーションで使用するツール呼び出しに最適なローカルLLMを見つけてください。
今すぐ読む
Docker Model Runner で Gemma 3 を実行する: 完全にローカルな GenAI 開発者エクスペリエンス
Docker Model Runner を使用して Gemma 3 モデルをローカルで実行する方法と、コメント処理システムを使用して実用的なケース スタディとして探ります。
今すぐ読む