Ollama + Open-WebUI selbst hosten: Ihr privater KI-Assistent
Anleitungen 4. März 2026 1 min read

Ollama + Open-WebUI selbst hosten: Ihr privater KI-Assistent

H

Hostly Team

Self-Hosting Enthusiast

Erstellen Sie Ihre eigene ChatGPT-Alternative in unter 15 Minuten. Dieser vollständige Leitfaden zeigt Ihnen, wie Sie Ollama und Open-WebUI für einen privaten, leistungsstarken KI-Assistenten einsetzen.

ChatGPT ist leistungsstark, aber es hat einen Preis — nicht nur das $20/Monat-Abonnement, sondern das Wissen, dass jeder Prompt, den Sie schreiben, auf den Servern von OpenAI gespeichert wird. Für datenschutzbewusste Benutzer gibt es einen besseren Weg.

In diesem umfassenden Leitfaden werden wir einen privaten KI-Assistenten mit Ollama und Open-WebUI aufbauen.

Was wir bauen

Unser Stack besteht aus zwei Komponenten:

  • Ollama — Ein lokaler LLM-Server, der KI-Modelle herunterlädt, verwaltet und ausführt
  • Open-WebUI — Eine schöne Web-Oberfläche für das ChatGPT-ähnliche Chat-Erlebnis

Schritt 1: Ollama installieren

curl -fsSL https://ollama.com/install.sh | sh

Schritt 2: Ein Modell herunterladen

ollama pull deepseek-r1:14b

Schritt 3: Open-WebUI deployen

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

Besuchen Sie http://localhost:3000 für Ihren privaten KI-Assistenten!

Entdecken Sie mehr selbst gehostete KI-Tools in unserer KI-Kategorie.