webui๊ฐ apiํธ์ถ์ ollama server์ ์์ฒญํ๋๋ฐ ollama server๊ฐ ๊ธฐ๋ณธ์ ์ผ๋ก ์ธ๋ถ ํธ๋ํฝ์ ํ์ฉํ์ง ์์์ ๋ค์์ฒ๋ผ ์์ ํ ์คํํด์ผํ๋ค.
์คํํ๊ธฐ์ ์ ๊ธฐ์กด์ ์คํํด๋ ollama api๋ฅผ 0.0.0.0 ์์ ์ ์์ด ๊ฐ๋ฅํ๊ฒ ํด์ผํ๋ค. ๊ธฐ๋ณธ์ ์ผ๋ก๋ localhost๋ผ๋ ์ด๋ฆ๋ง ๊ฐ๋ฅํ๋ค. cors๋ ์ถ๊ฐํด์ผํ๋ค.
```sh
curl http://localhost:11434 => ok
curl http://hostname:11434 => nogood
curl http://hostip:11434 => nogood
export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_ORIGINS=*
ollama serve
mkdir -p /etc/systemd/system/ollama.service.d
echo '[Service]' >>/etc/systemd/system/ollama.service.d/environment.conf
echo 'Environment="OLLAMA_HOST=0.0.0.0:11434"' >>/etc/systemd/system/ollama.service.d/environment.conf
echo 'Environment="OLLAMA_ORIGINS=*"' >>/etc/systemd/system/ollama.service.d/environment.conf
systemctl daemon-reload
systemctl restart ollama
curl http://localhost:11434 => ok
curl http://hostname:11434 => ok
curl http://hostip:11434 => ok
git repo๋ฅผ ํด๋ก ํด์ build๋ฅผ ํด๋ ๋์ง๋ง ๋ ์์ค์ฝ๋๋ฅผ ์์ ํ ์ด์ ๊ฐ ์์ผ๋ฏ๋ก ๋ค์์ฒ๋ผ ์งํํ๋ค.
docker run -d -p 3000:8080 --name ollama-webui --restart always \
-e OLLAMA_API_BASE_URL='http://192.168.4.61:11434/api' \
-e PUBLIC_API_BASE_URL='http://192.168.4.61:11434/api' \
ghcr.io/ollama-webui/ollama-webui:main
์คํํด๋ณด๋ฉด ํ๋ฉด์ด ์๋์ค๊ณ ์ง๋ฌธ์ ๋ต๋ณ์ด ์ ๋์จ๋ค.
version: '3.8'
services:
ollama-webui:
image: ghcr.io/ollama-webui/ollama-webui:main
container_name: ollama-webui
ports:
- 3000:8080
environment:
- 'OLLAMA_API_BASE_URL=http://192.168.4.61:11434/api'
- 'PUBLIC_API_BASE_URL=http://192.168.4.61:11434/api'
restart: unless-stopped
setting๋ฉ๋ด๋ฅผ ์ ํ์ธํ์.
json์ผ๋ก ๊ฒฐ๊ณผ๊ฐ ๋์ค๋ฉด request mode๋ฅผ json์ผ๋ก ๋ฐ๊พธ๋ฉด ๋๋ค.