手把手教你本地部署DeepSeek R1,让你AI性能原地起飞

随着人工智能技术的迅猛发展,越来越多的人开始关注并使用AI协助完成工作了,DeepSeek便是今年最火的一款大语言模型,目前使用DeepSeek的方式有三种:

  1. 使用已部署了网页版的AI平台
  2. 使用云服务商提供的API接口,对接到套壳AI平台上使用
  3. 自己本地搭建R1模型

接下来,我将详细讲解下这三种方式的主流媒体有哪些,本次重点是讲第三个:**如何本地搭建DeepSeek R1模型**

1、使用网页版DeepSeek

目前市面上,能部署出满血版的DeepSeek R1的平台不多,主要是它最低配需要8张96G显存太费钱了!不过这些对于那些大型科技公司来说倒不是什么难题,目前已支持网页版满血DeepSeek R1模型的平台主要有:**DeepSeek官网、天工AI、秘塔AI、纳米AI、超算互联网平台、问小白**

1.1、DeepSeek官网

官网地址:https://chat.deepseek.com/

这个大家应该很熟悉了,最正宗的官网页面,支持R1及深度思考

好用归好用,就是经常服务器访问不通

1.2、天工AI

官网地址:https://www.tiangong.cn/

昆仑万维旗下产品

1.3、秘塔AI

官网地址:https://metaso.cn/

接入了满血版 DeepSeek R1(671B)推理模型,每个账号每天有 100 次搜索额度,并支持联网功能,操作便捷。

1.4、纳米AI

官网地址:https://www.n.cn/

360出品,手机端网页端均可用

1.5、超算互联网平台

官网地址:https://chat.scnet.cn/#/home

已推出 DeepSeek-R1 模型的 7B、32B及满血版671B 版本, 平台目前免费开放。

1.6、POE

官网地址:https://poe.com/

一款AI产品聚合平台,价格有点小贵,不差钱的可以去用

1.7、问小白

官网地址:https://www.wenxiaobai.com/

问小白平台上周也刚上线了DeepSeek-R1满血版,提供免费流畅的使用体验。支持联网搜索、上传文件、多模态分析等功能,具备深度思考、时效性回答、生成深度话题等亮点。客户端支持语音输入和语音播放,适合多群体使用。

1.8、圈友互联AI

地址:https://ai.quanyouhulian.com/

哈哈,这个是我自己的AI平台,目前已对接了主流的AI平台,DeepSeek R1满血版也还在对接中,对接完成将会免费开放出来,另外里面的AI音乐、AI视频均为当前最强模型!

2、使用云服务商提供的API接口

这个之前文章讲过,主要拿到API接口后放到个套壳AI前端使用,这里就不重复将了,目前已支持提供API的服务厂商如下

3、自己本地搭建R1模型

好了,前面讲了一大堆废话,重点干货现在来了!

为什么要选择本地部署DeepSeek?

原因很简单:DeepSeek的服务器因访问量过大,现在服务经常卡顿,本地部署能够确保你在任何时候都可以使用该模型。此外,本地部署还能提升数据的安全性,避免敏感信息的外泄。**特别是对于需要连接私有接口(比如:使用AI炒股、使用AI做预测)**,本地部署将是唯一选择!

本地部署DeepSeek R1需要什么配置?

我想这个问题大家都很关心,先来看下R1都有哪些开源的模型,这里我们去Hubgging Face(AI界的Github):https://huggingface.co/models?sort=trending&search=Deepseek 可以看到R1有很多蒸馏版的小参数模型(科普下:蒸馏版意思就是使用别的大模型的答案去做的参数训练)

再来看下官网给出的最低配置要求,可以看出满血版最低需要8 * 96G的显存,这个配置我问了下阿里云,每个月要15万,所以大家别想了,咱们本地就使用DeepSeek-R1-Distill-Qwen-1.5B就可以了

模型 最低配置 支持的最大Token数
部署方式为BladeLLM加速(推荐) 部署方式为vLLM加速 部署方式为标准部署
DeepSeek-R1 8卡GU120(8 * 96 GB显存) 不支持 4096 不支持
DeepSeek-V3 8卡GU120(8 * 96 GB显存) 不支持 4096 2000
DeepSeek-R1-Distill-Qwen-1.5B 1卡A10(24 GB显存) 131072 131072 131072
DeepSeek-R1-Distill-Qwen-7B 1卡A10(24 GB显存) 131072 32768 131072
DeepSeek-R1-Distill-Llama-8B 1卡A10(24 GB显存) 131072 32768 131072
DeepSeek-R1-Distill-Qwen-14B 1卡GPU L(48 GB显存) 131072 32768 131072
DeepSeek-R1-Distill-Qwen-32B 1卡GU120(96 GB显存) 131072 32768 131072
DeepSeek-R1-Distill-Llama-70B 2卡GU120(2 * 96 GB显存) 131072 32768 131072

如何在本地部署?

目前本地快捷部署主要有两种方式:Ollama、LM Studio,接下来我将重点讲下如何使用Ollama部署

1、下载Ollama

官网地址:https://ollama.com/

Ollama是一个专门用来本地运行开源大模型的工具,目前也是开源模型部署使用最多的平台

选择你电脑对应的版本

下载完成后点击Install即可自动完成安装

验证安装版本

进入终端输入命令,验证是否安装成功

1
ollama --version

2、下载模型

进到Ollama官网,搜索deepsee-r1:https://ollama.com/library/deepseek-r1

选择1.5b,其余的大家就别想了,具体原因可以看下我上面发的每个对应最低配置要求

如果你的显卡足够强,也可以下载再高级一点的,具体参考如下

点击复制命令

3、安装模型

直接使用上面复制的命令,在终端窗口输入即可开始安装,包1.1G,网速快的话一般5分钟左右就下载完成

1
ollama run deepseek-r1:1.5b

4、开始使用

上一步模型下载到本地后,就会自动进入到终端对话窗,开始对话使用了!

使用以下命令可以看到相关操作项

1
ollama help

如何在本地可视化UI界面使用?

地址:https://chatboxai.app/zh

下载个Chatbox,该聊天工具可以直接引入Ollama API

打开安装包后,界面如下,选择自己的API Key

这里我们选择Ollama API

这里会自动识别本地的ollama地址,选择好模型直接保存即可

接下来,返回聊天界面测试下,推理模型正常用,完美!

总结

本篇文章详细讲解了DeepSeek的三种使用方式:总的来说,选择哪种方案取决于你的具体需求和预算。

**如果你需要高性能模型并且预算充足,云上部署或者企业内部部署是不错的选择**。如果你更关注隐私和稳定性,本地部署则是理想之选。而对于普通用户,第三方平台提供的网页和客户端服务可能是最便捷的。

无论选择哪种方式,提前做好准备总是明智的。希望这篇指南能帮助你顺利部署DeepSeek R1,充分利用这款强大的AI模型。如果你有其他好的建议或者经验,欢迎在评论区分享。让我们一起探索AI技术的无限可能。


手把手教你本地部署DeepSeek R1,让你AI性能原地起飞
http://example.com/2025/02/17/后端技术互联/手把手教你本地部署DeepSeek R1,让你AI性能原地起飞/
作者
技术Z先生
发布于
2025年2月17日
许可协议