Come self-hostare Ollama + Open-WebUI: Il tuo assistente IA privato
Tutorial 4 marzo 2026 1 min read

Come self-hostare Ollama + Open-WebUI: Il tuo assistente IA privato

H

Hostly Team

Self-Hosting Enthusiast

Crea la tua alternativa a ChatGPT in meno di 15 minuti. Questa guida completa ti mostra come distribuire Ollama e Open-WebUI per un assistente IA privato e potente.

ChatGPT è potente, ma ha un costo — non solo l'abbonamento di $20/mese, ma la consapevolezza che ogni prompt che scrivi è memorizzato sui server di OpenAI. Per gli utenti attenti alla privacy, c'è un modo migliore.

In questa guida completa, costruiremo un assistente IA privato usando Ollama e Open-WebUI.

Cosa stiamo costruendo

  • Ollama — Un server LLM locale che scarica, gestisce ed esegue modelli IA
  • Open-WebUI — Una bella interfaccia web per l'esperienza di chat simile a ChatGPT

Passo 1: Installare Ollama

curl -fsSL https://ollama.com/install.sh | sh

Passo 2: Scaricare un modello

ollama pull deepseek-r1:14b

Passo 3: Distribuire Open-WebUI

docker run -d --name open-webui -p 3000:8080 \\n  --add-host=host.docker.internal:host-gateway \\n  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n  ghcr.io/open-webui/open-webui:main

Visita http://localhost:3000 per il tuo assistente IA privato!

Esplora altri strumenti IA self-hosted nella nostra categoria IA.