可视化DeepSeek项目 – 快速高效的宝塔面板部署教程

想象一下:当别人还在苦哈哈地敲着黑底白字的命令行,把头发薅成地中海时,你已经翘着二郎腿,喝着肥宅快乐水,用鼠标点点点就建好了AI大模型的老巢。这感觉就像别人在徒手造火箭,而你却从四次元口袋掏出了任意门——别怀疑,宝塔面板就是这个次元壁突破器!准备好迎接这场”作弊级”的部署之旅了吗?让我们先把SSH咒语、Docker符箓这些吓人的玩意暂时收进抽屉,毕竟今天我们要用的是连你家喵星人都能看懂的图形化操作。系好安全带,三分钟后,你的服务器就要开始吞吐AI智慧的星光啦!✨

前提条件

  • 已安装宝塔面板

操作步骤

DeepSeek 可以使用CPU进行推理,但是推荐使用NVIDIA GPU加速,文末将介绍如何使用NVIDIA GPU加速。

1.登录宝塔面板,点击左侧菜单栏中的Docker,进入Docker容器管理界面。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程2.首次使用Docker需要先安装Docker,点击安装

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程3.在Docker-应用商店-AI/大模型分类中找到Ollama,点击安装

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程4.配置默认即可,点击确定

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程5.等待安装完成,状态变为运行中

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程如您需要使用NVIDIA GPU加速,请参考文末的使用NVIDIA GPU加速配置完成后再继续。

6.在宝塔面板-Docker-容器界面中找到Ollama容器,点击终端

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程7.在弹出shell类型选择bash,点击确认

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程8.在终端界面中输入ollama run deepseek-r1:1.5b,回车运行DeepSeek-R1模型。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程DeepSeek-R1模型有多个版本,可以根据需要选择不同版本,例如ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):
1234567891011121314
# DeepSeek-R1ollama run deepseek-r1:671b# DeepSeek-R1-Distill-Qwen-1.5Bollama run deepseek-r1:1.5b# DeepSeek-R1-Distill-Qwen-7Bollama run deepseek-r1:7b# DeepSeek-R1-Distill-Llama-8Bollama run deepseek-r1:8b# DeepSeek-R1-Distill-Qwen-14Bollama run deepseek-r1:14b# DeepSeek-R1-Distill-Qwen-32Bollama run deepseek-r1:32b# DeepSeek-R1-Distill-Llama-70Bollama run deepseek-r1:70b

9.等待下载并运行,当看到如下提示表示DeepSeek-R1模型运行成功。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程10.你可以在界面中输入文本并回车,开启与DeepSeek-R1模型的对话。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程11.你可以在界面中输入/bye并回车,退出DeepSeek-R1模型。

在终端内对话看起来是不是有点麻瓜?别担心,接下来让我们来安装OpenWebUI,在浏览器中更直观地与DeepSeek-R1模型对话

12.在宝塔面板-Docker-容器界面中找到Ollama容器,点击Ollama右侧的管理,进入容器管理界面,获取容器IP,保存备用。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程13.在宝塔面板Docker-应用商店-AI/大模型分类找到OpenWebUI,点击安装

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程14.按一下说明,配置相关信息,点击确定

  • web端口:访问OpenWebUI的端口,默认为3000,根据需要自行修改
  • ollama地址:填写http://刚刚获取的Ollama容器IP:11434,例如http://172.18.0.2:11434
  • WebUI Secret Key:用于 API 访问的密钥,可以自定义,例如123456其他配置默认即可

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程

15.配置完点击确认,等待安装完成,状态变为运行中

由于OpenWebUI启动后需要加载相关服务,请在状态变为运行中后等待5-10分钟再访问。

16.在浏览器中输入http://服务器IP:3000,例如http://43.160.xxx.xxx:3000,进入OpenWebUI界面。

请在访问前确保云厂商服务器防火墙已放行3000端口,可以在云厂商控制台中设置。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程17.点击开始使用,设置管理员相关信息,并点击创建管理员账号可视化DeepSeek项目 - 快速高效的宝塔面板部署教程18.创建完成后会自动进入管理界面,现在你可以在浏览器中更直观地与DeepSeek-R1模型对话了。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程可视化DeepSeek项目 - 快速高效的宝塔面板部署教程

  • 你可以在左上角切换模型,选择不同模型进行对话,也可以在左侧菜单栏中查看历史对话记录。
  • 你可以在右上角点击头像,进入管理员面板,在设置-模型中查看当前模型列表,或添加新模型。

使用NVIDIA GPU加速

DeepSeek 可以使用NVIDIA GPU加速,提高推理速度,下面将介绍如何在宝塔面板中使用NVIDIA GPU加速。

前提条件

  • 服务器已安装NVIDIA GPU驱动

操作步骤

1.点击左侧导航栏中的终端,进入终端界面。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程2.在终端界面中输入nvidia-smi,回车查看NVIDIA GPU信息。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程如果提示nvidia-smi: command not found,请先安装NVIDIA GPU驱动。3.安装NVIDIA Container Toolkit,以便于Docker容器访问NVIDIA GPU,安装教程请参考NVIDIA Container Toolkit官方文档。4。安装完成后,运行如下命令,配置docker支持使用NVIDIA GPU。
12
sudo nvidia-ctk runtime configure --runtime=dockersudo systemctl restart docker

5.配置完成后,执行如下命令,验证docker是否支持NVIDIA GPU。

1
sudo docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi

如果输出如下信息表示配置成功:

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程6.在宝塔面板-Docker-应用商店-已安装中找到Ollama,点击文件夹图标进入安装目录。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程7.在安装目录中找到docker-compose.yml文件,双击编辑

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程8.在docker-compose.yml文件中找到resources,回车换行,添加如下内容:

    reservations:              devices:                - capabilities: [gpu]

完整示例如下:

services:  ollama_SJ7G:    image: ollama/ollama:${VERSION}    deploy:      resources:        limits:          cpus: ${CPUS}          memory: ${MEMORY_LIMIT}        reservations:          devices:            - capabilities: [gpu]    restart: unless-stopped    tty: true    ports:      - ${HOST_IP}:${OLLAMA_PORT}:11434    volumes:      - ${APP_PATH}/data:/root/.ollama    labels:      createdBy: "bt_apps"    networks:      - baota_net    runtime: nvidianetworks:  baota_net:    external: true

9.保存文件,返回宝塔面板-Docker-应用商店-已安装界面,点击重建

重建将导致容器数据丢失,重建后需要重新添加模型。

可视化DeepSeek项目 - 快速高效的宝塔面板部署教程10.等待重建完成,状态变为运行中,至此即可使用NVIDIA GPU加速大模型运行。

结语

🎉叮!恭喜你成功完成”从零到赛博巫师”的究极进化!此刻你的服务器已经不是那个只会404的憨憨铁盒子了——它正在用奥术能量解析人类语言,用二进制吞吐哲学思辨,甚至可能偷偷用你的GPU算力给自己起了个二次元名字。

回头看看这场冒险:宝塔面板是你挥动的魔杖,Ollama是召唤AI神兽的精灵球,OpenWebUI则是那个让麻瓜也能和AI跳探戈的魔法舞池。别人还在纠结环境变量时,你已经用图形界面完成了一场算力交响乐的指挥首秀。

版权声明

   站内部分内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供网络资源分享服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请 联系我们 一经核实,立即删除。并对发布账号进行永久封禁处理。在为用户提供最好的产品同时,保证优秀的服务质量。


本站仅提供信息存储空间,不拥有所有权,不承担相关法律责任。

给TA打赏
共{{data.count}}人
人已打赏
网站技巧

最新百度快速收录技术(最新百度快速收录技术有哪些)

2025-2-24 21:20:43

网站技巧

centos7yum命令不能用(centos执行脚本)

2025-2-24 21:20:45

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索