どうもいくつかの方法があるようだ。
1.いきなりDockerにてOllama & Open-webui
docker run -d -p 3000:8080 –gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:ollama
2. Ollama installが完了していたら、ollama run <model; e.g. gemma3>
これでプロンプトベースでollamaが動く。別のモデルで動かしたいなら、
ollama pull <model; e.g. gemma3>を先にやる
3. これでやるとこれまでにインストールしたモデルも反映されている
docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main