本地免费部署DeepSeek教程,个人PC都能安装(附软件)
一、什么是DeepSeek R1
DeepSeek R1 是由中国人工智能公司深度求索(DeepSeek)于2024年4月推出的智能助手,基于其自研的DeepSeek大模型构建,目前已经开源。
二、为什么需要本地部署


三、GPU和显存要求

关于显存使用的关键说明:
大模型的分布式 GPU 设置
:运行 DeepSeek-R1-Zero 和 DeepSeek-R1 需要大量显存,因此需要分布式 GPU 配置(例如,在多 GPU 设置中使用 NVIDIA A100 或 H100)以获得最佳性能。
精简模型的单 GPU 兼容性
:精简模型已经优化,可在显存需求较低的单个 GPU 上运行,最低要求仅为 0.7 GB。
额外的内存使用
:激活、缓冲区和批处理任务可能会消耗额外的内存。
四、本地化部署教程
1、下载软件
要在本地运行DeepSeek R1,我们将使用一个叫做Ollama的工具。
Ollama是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于macOS、Linux和Windows。
访问Ollama的官方网站:https://ollama.com/,点击“下载”按钮,下载完之后直接点击安装即可
官网下载非常慢,或者关注我们公众号后台回复获取安装包:Ollama


2、安装完成之后,进行版本查看
按快捷键win+X,选择“终端”,输入命令“ollama -v”

3、根据自己电脑的配置,选择要安装的版本
先在主页中点击“models”,然后看到一个就是deepseek-r1,直接点击进去,


这里选择的是14b,那命令是:ollama run deepseek-r1:14b,将该命令在一开始终端窗口执行,就可以直接下载了

到这里,DeepSeek已经安装好了,可是我们总不能再终端窗口下聊天吧,也太。。。。
四、可视化界面安装
1、打开Chatbox AI官网,点击免费下载,下载到本地之后直接点击安装即可

2、设置界面的语言

3、设置环境变量
按下快捷键win+X,按照下图顺序依次点击“系统”-“高级系统设置”-”环境变量“
在环境变量界面单击”新建“按钮,然后新建第一个用户变量:OLLAMA_HOST,变量值是:0.0.0.0,单击确定

新建第二个用户变量:OLLAMA_ORIGINS,变量值是:OLLAMA_ORIGINS,单击确定

4、设置模型
首先点击模型,在模型提供方选择:Ollama API,

下面模型选择,之前安装的模型:deepseek-r1:14b,点击保存
5、本地测试
确保本地环境变量和chatbox设置没有问题,进行聊天测试,可以正常沟通了。

DeepSeek无疑是2025开年AI圈的一匹黑马,在一众AI大模型中,DeepSeek以低价高性能的优势脱颖而出。DeepSeek的上线实现了AI界的又一大突破,各大科技巨头都火速出手,争先抢占DeepSeek大模型的流量风口。
DeepSeek的爆火,远不止于此。它是一场属于每个人的科技革命,一次打破界限的机会,一次让普通人也能逆袭契机。
DeepSeek的优点

掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。现在越来越多的人才都想往大模型方向转行,对于想要转行创业,提升自我的人来说是一个不可多得的机会。
那么应该如何学习大模型
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。
不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!