ローカル環境で LLM 推論をシンプルに
Docker Model Runner を使えば、使い慣れた Docker CLI で AI モデルをローカルにテスト・実行できます。Docker Hub を含む OCI 準拠の任意のレジストリに対応し、OpenAI API との連携により、アプリケーションへの統合もスムーズです。
トークンコストを削減し、データはローカルに保持。完全なコントロールを維持できます。
トークンコストを削減し、データはローカルに保持。完全なコントロールを維持できます。
人気の AI モデルを、Docker で手軽にローカル実行
すぐに使えるモデル
Docker Hub で厳選されたオープンソース AI モデルのカタログを探索するか、Hugging Face から直接プルできます。
完全なローカル制御
LLM をローカルで実行し、AI ワークフローとデータプライバシーを完全にコントロール。
ネイティブ GPU アクセラレーション
高速かつ効率的な推論で、ローカルマシンの性能を最大限に引き出す。
簡単なアプリ統合
OpenAI API を使って推論リクエストを送信。高速でスケーラブルなアプリ統合に最適です。
Docker とのシームレスな統合
Docker Compose、Testcontainers、Offload などの主要な Docker ツールと連携し、ローカルから CI/CD までスムーズにスケールできます。
ポータブル設計で、共有も簡単
モデルをパッケージ化・管理し、Docker Hub などの OCI 準拠レジストリへ簡単に共有できます。
チームとエンタープライズ向けに設計
Docker Hub 上の OCI アーティファクトとして、モデルへのアクセスと権限を安全に管理できます。
AI アプリを開発する場所でそのまま使える
Spring AI、LangChain、OpenWebUI などのフレームワークと連携。使い慣れた Docker ツールでそのまま開発できます。
手間のかからないローカル推論は、ここから
Docker Model Runner で LLM をローカル実行。トークンコストを削減し、完全なコントロールを維持。使い慣れたツールをそのまま使えます。