跳转至

LLM

一、模型容器

ollama

lm studio

# 加速下载
wget https://github.moeyy.xyz/https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64

1.1 使用集锦

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

OLLAMA_HOST=0.0.0.0:19090 ollama serve
OLLAMA_HOST=0.0.0.0:19090 ollama pull deepseek-r1:1.5b
OLLAMA_HOST=0.0.0.0:19090 ollama pull deepseek-r1:14b
OLLAMA_HOST=0.0.0.0:19090 ollama pull deepseek-r1:32b

OLLAMA_HOST=0.0.0.0:19090 ollama serve
OLLAMA_HOST=0.0.0.0:19090 ollama run deepseek-r1:1.5b

http://10.110.83.55:19090/

# 一样的
docker pull dyrnq/open-webui
docker pull ghcr.io/open-webui/open-webui:main

# example
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

# sample
docker run -d -p 19090:8080 \
    -e OLLAMA_BASE_URL=http://10.110.83.55:19090/ \
    -v open-webui:/app/backend/data \
    --name open-webui \
    --restart always \
    ghcr.io/open-webui/open-webui:main

v0.5.14 解决文档上传失败的BUG。

二、下载模型

三、对话交互

open-webui

lm studio

anythingllm

docker

  • open-webui
  • anytinglm

3.1 open-webui

# 普通用户打开预设模型
# 管理员面板 --> 设置 --> 模型 --> 可见性[由 private 变更为 public]
# 

3.2 lm studio

3.3 anythingllm

env.example

docker pull mintplexlabs/anythingllm:1.4

export STORAGE_LOCATION=/data1/lib/anythingllm && \
    mkdir -p $STORAGE_LOCATION && \
    touch "$STORAGE_LOCATION/.env" && \
    chown 1000.1000 -R $STORAGE_LOCATION

cat > $STORAGE_LOCATION/.env <<EOF
###########################################
######## LLM API SElECTION ################
###########################################
LLM_PROVIDER='ollama'
OLLAMA_BASE_PATH='http://10.110.83.55:19090/'
OLLAMA_MODEL_PREF='deepseek-r1:7b'
OLLAMA_MODEL_TOKEN_LIMIT=4096
EOF

docker run -d -p 19091:3001 \
    --name anythingllm \
    --restart always \
    --cap-add SYS_ADMIN \
    -v ${STORAGE_LOCATION}:/app/server/storage \
    -v ${STORAGE_LOCATION}/.env:/app/server/.env \
    -e STORAGE_DIR="/app/server/storage" \
    mintplexlabs/anythingllm:1.4

四、增强模型

https://www.modelscope.cn/models/liush99/ollama_models

Modelfile

Generate a response

prompt

五、关键问题

# 1. 下载模型加速,复用?
默认存储在 ~/.ollama 拷贝可用

# 2. open-webui 模型对普通用户可见
在“管理员面板 --> 设置 --> 模型 --> 可见性[ private 变更为 public]”
或进行用户权限分组管理,在模型中指定权限组可见

# 3. 导入预设(自定义语料)?

# 4. 查询模型(没有答案时不胡编乱造)

# 5. open-webui 允许普通用户注册?
在管理员面板设置,需要管理员激活

# 6. 创建模型 modelfile