LM Studio +Cherry Studio+DeepSeek R1 7b 内网、离线部署安装包下载地址 新手友好!5分钟在内网部署好DeepSeek!
5分钟在内网部署好DeepSeek-R1-7b模型
LM Studio +Cherry Studio+R17b 离线安装包新手友好!简单易用!
一、服务器端
1.默认设置安装LM Studio 程序
2.拷贝7b模型到LM Studio 默认模型存放目录
C:\Users\Administrator\.lmstudio\models\deepseek\r1\DeepSeek-R1-7b.gguf
3.LM Studio启动7b:开发者界面选择要加载的模型DeepSeek-R1-7b-默认参数加载模型
4.启动网络服务:开发者界面-Settings-启用在局域网内提供服务
启用 CORS
5.在浏览器打开http://服务器IP:1234/,页面响应{"error":"Unexpected endpoint or method. (GET /)"},确认服务已正常启动。
二、客户端
1. 默认设置安装Cherry-Studio 程序
2. 配置服务器信息:点击左下角 设置-API地址(填入服务器地址)-管理-点击R1 (deepseek/r1/deepseek-r1-7b.gguf)后+添加需要调用端模型。
3. 助手界面-选择R1(deepseek-r1-7b.gguf)模型 完成对话模型选择完成配置。
4. 在助手界面对话框测试模型响应速度和回答质量。
------------------
下载安装包, 安装.
打开Cherry-Studio, 找到设置.
选择 "模型" 或 "连接".
选择 "Ollama" 作为提供商.
填写 Ollama 的地址和端口 (默认 http://localhost:11434).
选择模型.
测试连接
LM Studio +Cherry Studio+DeepSeek R1 7b 内网、离线部署安装包下载地址:
夸克网盘:
我用夸克网盘分享了「5分钟在内网部署好DeepSeek-R1-7b模型」
链接:https://pan.quark.cn/s/48f21e43a2ff
百度网盘:
通过网盘分享的文件:5分钟在内网部署好DeepSeek-R1-7b模型
链接: https://pan.baidu.com/s/1wmq7s7-WX73x8VwPAk3FAA?pwd=iir7 提取码: iir7
加入 AI帮小忙 抖音专属会员群 可以下载DeepSeek R1 8b、14b、32b、70b离线版模型、更详细的部署文档、内网离线部署安装DeepSeek视频。
登录后可发表评论
点击登录