ChatGPT мощный, но у него есть цена — не только подписка $20/месяц, но и знание того, что каждый ваш запрос хранится на серверах OpenAI. Для пользователей, заботящихся о конфиденциальности, есть лучший способ.
В этом полном руководстве мы создадим приватного ИИ-ассистента с помощью Ollama и Open-WebUI.
Что мы строим
- Ollama — Локальный LLM-сервер, который загружает, управляет и запускает ИИ-модели
- Open-WebUI — Красивый веб-интерфейс для чата в стиле ChatGPT
Шаг 1: Установка Ollama
curl -fsSL https://ollama.com/install.sh | shШаг 2: Загрузка модели
ollama pull deepseek-r1:14bШаг 3: Развертывание Open-WebUI
docker run -d --name open-webui -p 3000:8080 \\n --add-host=host.docker.internal:host-gateway \\n -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \\n ghcr.io/open-webui/open-webui:mainПосетите http://localhost:3000 для вашего приватного ИИ-ассистента!
Изучите больше самостоятельно размещаемых ИИ-инструментов в нашей категории ИИ.