ollama.sh是集ollama安装,运行一体的,每次运行会检测ollama是否安装
如果出现:Port 11434 is already in use. 解决方案:
#查看占用端口的id
lsof -i :11434
#干掉它
kill -9 查询出来的id
#赋予可以执行权限
chmod +x ollama.sh
#执行
./ollama.sh
mirrors.nju.edu.cn
daocloud.io/
注意:运行open-webui后无需在运行chatOllama
- 首次运行新建目录,目录结构如下:
├── data
│ └── open-webui
├── docker-compose.yml
├── ollama.sh
├── README.md
└── services
- docker-compose.yml的environment中设置本机穿墙代理,否则无法下载huggingface中模型,会导致运行失败
首次运行新建目录,目录结构如下:
├── data
│ ├── .chatollama
│ └── chromadb_data
├── docker-compose.yml
├── ollama.sh
├── README.md
└── services
sudo docker-compose up
注意:如果是首次启动,在./data/.chatollama
文件夹中,如果没有chatollama.sqlite
文件,则运行:
docker compose exec chatollama npx prisma migrate dev
1、settings->Ollama Server Setting->Host: http://host.docker.internal:11434
2、需要使用知识库,需要解码模型:nomic-embed-text
3、OpenAI Embedding Model(任选一个)
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002