Ollama + Open-WebUI をセルフホストする方法:あなたのプライベート AI アシスタント
チュートリアル 2026年3月4日 1 min read

Ollama + Open-WebUI をセルフホストする方法:あなたのプライベート AI アシスタント

H

Hostly Team

Self-Hosting Enthusiast

15分以内に独自のChatGPT代替を構築しましょう。この完全ガイドでは、OllamaとOpen-WebUIをデプロイして、完全に自分のハードウェアで動作するプライベートで強力なAIアシスタントを作成する方法を紹介します。

ChatGPTは強力ですが、コストがかかります — 月額20ドルのサブスクリプションだけでなく、あなたが書くすべてのプロンプトがOpenAIのサーバーに保存されるという事実もあります。プライバシーを重視するユーザーには、より良い方法があります。

この包括的なガイドでは、OllamaOpen-WebUIを使用してプライベートAIアシスタントを構築します。

構築するもの

  • Ollama — AIモデルをダウンロード、管理、実行するローカルLLMサーバー
  • Open-WebUI — ChatGPTのようなチャット体験を提供する美しいWebインターフェース

ステップ1:Ollamaのインストール

curl -fsSL https://ollama.com/install.sh | sh

ステップ2:モデルのダウンロード

ollama pull deepseek-r1:14b

ステップ3:Open-WebUIのデプロイ

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

http://localhost:3000にアクセスしてプライベートAIアシスタントを使用しましょう!

AIカテゴリでより多くのセルフホストAIツールを探索してください。