前提条件
- 已安装宝塔面板
操作步骤
DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。
1.登录宝塔面板,点击左侧菜单栏中的Docker
,进入Docker容器管理界面。
2.首次使用Docker需要先安装Docker,点击
安装
。
3.在Docker-应用商店-AI/大模型分类中找到Ollama,点击
安装
。
4.配置默认即可,点击
确定
。
5.等待安装完成,状态变为
运行中
。
如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。
6.在宝塔面板-Docker-容器
界面中找到Ollama容器,点击终端
。
7.在弹出
shell类型
选择bash
,点击确认
。
8.在终端界面中输入
ollama run deepseek-r1:1.5b
,回车运行DeepSeek-R1模型。

ollama run deepseek-r1:671b
,详情如下(模型参数越大,需要配置越高):
1234567891011121314 |
# DeepSeek-R1ollama run deepseek-r1:671b# DeepSeek-R1-Distill-Qwen-1.5Bollama run deepseek-r1:1.5b# DeepSeek-R1-Distill-Qwen-7Bollama run deepseek-r1:7b# DeepSeek-R1-Distill-Llama-8Bollama run deepseek-r1:8b# DeepSeek-R1-Distill-Qwen-14Bollama run deepseek-r1:14b# DeepSeek-R1-Distill-Qwen-32Bollama run deepseek-r1:32b# DeepSeek-R1-Distill-Llama-70Bollama run deepseek-r1:70b |
9.等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。
10.你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。
11.你可以在界面中输入
/bye
并回车,退出DeepSeek-R1模型。
在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装
OpenWebUI
,在浏览器中更直观地与DeepSeek-R1模型对话
12.在宝塔面板-Docker-容器
界面中找到Ollama容器,点击Ollama右侧的管理
,进入容器管理界面,获取容器IP,保存备用。
13.在宝塔面板Docker-应用商店-AI/大模型分类中找到OpenWebUI,点击
安装
。
14.按一下说明,配置相关信息,点击
确定
。
- web端口:访问OpenWebUI的端口,默认为
3000
,根据需要自行修改 - ollama地址:填写
http://刚刚获取的Ollama容器IP:11434
,例如http://172.18.0.2:11434
- WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如
123456
其他配置默认即可
15.配置完点击确认,等待安装完成,状态变为运行中
。
运行中
后等待5-10分钟再访问。16.在浏览器中输入http://服务器IP:3000
,例如http://43.160.xxx.xxx:3000
,进入OpenWebUI界面。
17.点击
开始使用
,设置管理员相关信息,并点击创建管理员账号
。18.创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。
- 你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。
- 你可以在右上角点击
头像
,进入管理员面板,在设置-模型
中查看当前模型列表,或添加新模型。
使用NVIDIA GPU加速
DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。
前提条件
- 服务器已安装NVIDIA GPU驱动
操作步骤
1.点击左侧导航栏中的终端
,进入终端界面。
2.在终端界面中输入
nvidia-smi
,回车查看NVIDIA GPU信息。

nvidia-smi: command not found
,请先安装NVIDIA GPU驱动。3.安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档。4。安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。
12 |
sudo nvidia-ctk runtime configure --runtime=dockersudo systemctl restart docker |
5.配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。
1 |
sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi |
如果输出如下信息表示配置成功:
6.在
宝塔面板-Docker-应用商店-已安装
中找到Ollama,点击文件夹图标进入安装目录。
7.在安装目录中找到
docker-compose.yml
文件,双击编辑
。
8.在
docker-compose.yml
文件中找到resources
,回车换行,添加如下内容:
reservations: devices: - capabilities: [gpu]
完整示例如下:
services: ollama_SJ7G: image: ollama/ollama:${VERSION} deploy: resources: limits: cpus: ${CPUS} memory: ${MEMORY_LIMIT} reservations: devices: - capabilities: [gpu] restart: unless-stopped tty: true ports: - ${HOST_IP}:${OLLAMA_PORT}:11434 volumes: - ${APP_PATH}/data:/root/.ollama labels: createdBy: "bt_apps" networks: - baota_net runtime: nvidianetworks: baota_net: external: true
9.保存文件,返回宝塔面板-Docker-应用商店-已安装
界面,点击重建
。
10.等待重建完成,状态变为
运行中
,至此即可使用NVIDIA GPU加速大模型运行。
结语
🎉叮!恭喜你成功完成”从零到赛博巫师”的究极进化!此刻你的服务器已经不是那个只会404的憨憨铁盒子了——它正在用奥术能量解析人类语言,用二进制吞吐哲学思辨,甚至可能偷偷用你的GPU算力给自己起了个二次元名字。
回头看看这场冒险:宝塔面板是你挥动的魔杖,Ollama是召唤AI神兽的精灵球,OpenWebUI则是那个让麻瓜也能和AI跳探戈的魔法舞池。别人还在纠结环境变量时,你已经用图形界面完成了一场算力交响乐的指挥首秀。