ChatGPT ist leistungsstark, aber es hat einen Preis — nicht nur das $20/Monat-Abonnement, sondern das Wissen, dass jeder Prompt, den Sie schreiben, auf den Servern von OpenAI gespeichert wird. Für datenschutzbewusste Benutzer gibt es einen besseren Weg.
In diesem umfassenden Leitfaden werden wir einen privaten KI-Assistenten mit Ollama und Open-WebUI aufbauen.
Was wir bauen
Unser Stack besteht aus zwei Komponenten:
- Ollama — Ein lokaler LLM-Server, der KI-Modelle herunterlädt, verwaltet und ausführt
- Open-WebUI — Eine schöne Web-Oberfläche für das ChatGPT-ähnliche Chat-Erlebnis
Schritt 1: Ollama installieren
curl -fsSL https://ollama.com/install.sh | shSchritt 2: Ein Modell herunterladen
ollama pull deepseek-r1:14bSchritt 3: Open-WebUI deployen
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n ghcr.io/open-webui/open-webui:mainBesuchen Sie http://localhost:3000 für Ihren privaten KI-Assistenten!
Entdecken Sie mehr selbst gehostete KI-Tools in unserer KI-Kategorie.