本地部署DeepSeek-R1模型全攻略:Ollama+Page Assist轻量化方案
——零代码实现私有知识库与AI助手
摘要
本文记录了个人在本地部署DeepSeek系列大语言模型的完整过程,为需要私有化部署AI模型的开发者提供参考。
核心优势
隐私安全:数据完全本地化,避免敏感信息泄露
轻量部署:集成显卡即可运行1.5B/7B模型,RTX4060也可运行14B甚至32B模型
扩展性强:支持PDF/文本构建知识库
环境搭建四步曲
1. Ollama安装
Windows用户官网下载安装包(推荐国内镜像加速)
如果发现下载太慢,个人发现:可以将链接复制到迅雷内进行下载,速度很快,三分钟之内可以下载完成。Windows用户可以直接点击:下载链接
验证安装:终端执行
1
ollama -v
显示版本号即成功
2. 模型部署
1 | ollama run deepseek-r1:7b # 中端配置推荐7B模型 |
显存适配方案:
▫️ 4GB显存 → 1.5B模型(GTX 1050 Ti)
▫️ 8GB显存 → 7B模型(RTX 3060)
我个人的配置是RTX4060,但是跑14B模型也毫无压力。个人推荐:如果是集成显卡,直接上7B及以上,如果是独显甚至是4060以上的显卡,建议最低上14B,参数过少的蒸馏版本智力水平稍微有些难以满足生产力需要。
3. Page Assist配置
浏览器插件安装:
▫️ Edge商店直接安装 → 搜索”Page Assist”
▫️ 离线安装包 → 解压拖拽至扩展管理界面
关键设置:
1
ollama pull nomic-embed-text # 加载轻量化嵌入模型
4. 知识库构建
支持格式:PDF/TXT/DOCX(建议预处理文本内容)
上传路径:Page Assist首页 → 添加知识库
典型问题解决方案
问题现象 | 解决方案 |
---|---|
模型下载失败或太慢 | 复制链接到迅雷下载 |
对话响应延迟 | 降低模型参数(如7B→1.5B)或启用4bit量化 |
知识库检索异常 | 检查nomic-embed-text模型是否加载成功 |
- 本文作者: 黎玮
- 本文链接: https://lwow.xyz/2025/02/23/本地部署DeepSeek的个人经验/
- 版权声明: © William-Liwei. All rights reserved.