深度操作系统发布 UOS AI 新功能,支持 DeepSeek-R1 模型接入
深度操作系统宣布 UOS AI 适配 DeepSeek-R1
2 月 7 日消息,深度操作系统今日发文宣布,UOS AI 现已适配接入 DeepSeek-R1 端侧模型。官方提供「离线部署」和「在线接入」两种方式在 UOS AI 中使用 DeepSeek-R1 模型,用户可根据自身设备及网络环境等情况自行选择。
方法一:离线部署 DeepSeek-R1 1.5B 模型
离线部署方式支持 deepin 23、deepin 25 Preview 系统使用。具体步骤如下:
- 更新 UOS AI 及向量化模型插件
- 若使用 deepin 23,可从应用商店更新 UOS AI 至最新版。
- 若首次在 deepin 中下载使用 UOS AI,根据界面提示「勾选用户使用协议 - 免费领取试用账号」后即可直接进入 UOS AI 全新版本。
- 若使用 deepin 25 Preview,请通过以下命令升级 UOS AI 至最新版:
sudo apt update sudo apt install uos-ai deepin-modelhub uos-ai-rag
- 更新完成后,打开 UOS AI 的「设置」选项,在「模型配置 - 本地模型」中选择「向量化模型插件 - 安装 / 更新」,随后将自动跳转至应用商店界面,点击安装 / 更新即可。
- 安装 DeepSeek-R1 模型 GGUF 版本
- UOS AI 的模型后端驱动框架是基于 llama.cpp,用户可在魔搭社区找到 DeepSeek-R1 的 GGUF 版本。
- 下载地址如下:
- 下载完成后,将模型文件解压至如下目录:
/home/用户名/.local/share/deepin-modelhub/models/DeepSeek-R1-1.5B/gguf
注:若没有 deepin-modelhub 文件夹以及下面的 models 文件夹,可以手动创建。 - 再次打开 UOS AI 界面,即可手动切换使用 DeepSeek-R1-1.5B 模型。
方法二:在线接入 DeepSeek-R1 API
在线接入方式支持 UOS V20、deepin 20.9、deepin 23、deepin 25 Preview 系统使用。具体步骤如下:
- 获取 API key
- 访问 DeepSeek 官网,注册 / 登录账号后,创建并获取 API key。
- 本文以硅基流动为例,注册 / 登录账号后,前往 API 密钥管理页面,创建并获取 API key。
- 在 UOS AI 中接入 DeepSeek-R1 在线模型
- 打开 UOS AI 的「设置」选项,在「模型配置」中选择「在线模型 - 添加」,进入 UOS AI 的添加模型界面。
- 完成添加窗口中的内容填写,并点击确定。参考信息如下:
- 账号名称:自定义
- 模型类型:自定义
- API key:粘贴获取的 API 密钥
- 模型名:deepseek-ai/DeepSeek-R1
- 请求地址:https://api.siliconflow.cn/v1/chat/completions
- 提交确认后,即可在 UOS AI 中选择 DeepSeek-R1 模型进行使用。
注意事项
- 离线部署:DeepSeek-R1 1.5B 模型大小适中,对硬件配置要求不高,仅需 CPU 即可实现流畅推理。若使用 CUDA 推理,可以等待后续 deepin 系统更新 CUDA 版本的推理后端框架。
- 在线接入:在线大模型受网络及用户访问量影响,可能会出现访问慢、超时或无法访问的情况,建议多次尝试。当前适配问题导致 DeepSeek 深度思考的内容与对话内容尚未分开,但不影响正常使用,UOS AI 团队会在后续更新中尽快优化体验。
结论
深度操作系统发布 UOS AI 新功能,支持离线部署和在线接入 DeepSeek-R1 模型,用户可根据需求选择适合的方式进行配置。离线部署适合硬件配置较低的设备,而在线接入则提供了更多的灵活性和模型选择。UOS AI 团队将持续优化用户体验,提升模型使用的便捷性和稳定性。