干货,普通人最简单本地部署DeepSeek R1大模型的教程

1. 访问 https://ollama.com/
 官网

图片[1]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网

2. 点击下载对应自己电脑系统的 Ollama 程序,我的电脑是 Windows 系统,那么我就下载 Windows 版本的 Ollama 程序

图片[2]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网

3. 下载安装 Ollama

图片[3]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网
图片[4]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网

下载好安装包后点击 install 安装

图片[5]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网

默认选择 c 盘安装,确保 c 盘有剩余空间

图片[6]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网
4. 打开 cmd 命令提示符

输入命令,等待下载安装好即可

ollama run deepseek-r1:14b

这个是 14b 的命令,修改不同参数的模型将命令内的数字修改对应即可

家用办公电脑推荐 1.5b 参数模型
低中端显卡推荐 7b-8b 参数模型
4060 显卡左右推荐 14b 参数模型
4090 显卡左右推荐 32b 参数模型
4090 显卡以上推荐 70b 参数模型

图片[7]|干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网

至此,大模型已经安装部署成功了

5. 为了更加方便我们需要一个 Web UI 界面,其他教程教大家用 docker,对于没有 docker 的人来说难免有些为了一叠醋包了顿饺子,而本教程推荐安装 Page Assist – 本地 AI 模型的 Web UI 浏览器插件

有魔法条件的可以直接访问:Page Assist – 本地 AI 模型的 Web UI 一键获取安装

没有魔法条件的可以在:https://pan.quark.cn/s/bbfe056725fd 获取离线安装包

本教程用到的所有资源包

主要为了方便没有网络条件的人离线下载

本站资源均为作者提供和网友推荐收集整理而来,仅供学习和研究使用,请在下载后24小时内删除,谢谢合作!
干货,普通人最简单本地部署DeepSeek R1大模型的教程|不死鸟资源网
干货,普通人最简单本地部署DeepSeek R1大模型的教程
此内容为免费资源,请登录后查看
¥0
限时特惠
¥99
文章采用CC BY-NC-SA 4.0许可协议授权
免费资源
THE END
点赞14 分享