DeepSeek模型很强大,但官方目前存在以下几个痛点
不稳定:官方页面、官方API暂时只能提供有限的服务
成本高:满血版671B个人电脑很少能带得动的
本文介绍nas/云服务器 部署OpenWebUI+DeepSeek API,实现多端互通查询自由,主要有以下几个优点
成本低:不用昂贵的硬件资源就能享受满血版DeepSeek,且第三方服务价格已经卷到百万tokens几块钱了,另外服务商还有免费额度
体验好:可以稳定进行多轮对话
详细部署步骤如下:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
2.2 浏览器访问 http://服务器ip:3000,设置初始密码
2.3 登录OpenWebUI社区,获取函数配置
点击 https://openwebui.com/f/zgccrui/deepseek_r1/。
注册官方账号(上一步是本地账户,与此处账号不同,需另外注册)
点击Get
填写本地部署的OpenWebUI地址
2.4 修改函数配置,添加api
准备好以下三个数据
api地址DEEPSEEK_API_BASE_URL。SiliconFlow是https://api.siliconflow.cn/v1
密钥DEEPSEEK_API_KEY。见1.2获取
模型名称DEEPSEEK_API_MODEL。这里以DeepSeek-R1为例,其他模型可回看1.3获取
有以下两种方式添加api,任选其一即可
2.4.1 修改代码
填写这三个default,点击保存
2.4.2 外部修改
完成以上两步任意一步之后,启用函数
2.5 使用模型
到这一步其实就可以直接调用deepseek了,点击新对话,选择刚刚建的函数,然后直接对话。可以展示思考过程和结果
中间可能会出现504 timeout的现象,重试即可。数次之内可正常出结果
以上就是本次部署的全文了,感谢您的阅读~
参与评论
手机查看
返回顶部