本地部署 deepseek 的简单方式
...大约 2 分钟
本地部署 deepseek 的简单方式
背景
春节过后,deepseek 大火,导致线上的服务经常崩溃,于是想着自己在本地部署一个,方便自己使用。
现在网上大部分方案,都是通过 Ollama 来实现的。但是这个方案需要安装 Ollama,要想聊天界面更友好,还要安装一个 chatbox,并且每次启动都要敲命令。我自己的电脑用的是 intel 的独立显卡,要想使用独显去跑模型,还得装个转译的包,还是挺麻烦的。
下边介绍一个比较简单的方式。
首先下载安装 LM Studio
根据自己电脑的系统,选择对应的版本下载安装。
下载安装完成后,打开 LM Studio,然后点击右下角的齿轮,修改一下默认语言。
然后还是在设置中,点一下左上角的 Model Search,搜索一下 DeepSeek,然后选择自己要下载的模型。一般来说,现在的笔记本跑一个 7b 的模型,就差不多到性能极限了。

提示
如果点击搜索后的结果,右侧没有出现详情,那就还需要再改下配置。图片上 4 的位置,勾选上,就可以进行下载了。
现在配置完成了,需要在聊天界面的顶部,选择要使用的模型。选择后会弹出个配置页面,可以先使用默认参数,点击右下角加载模型后就可以使用了。如果连续聊天记录会比较多,记得在选择模型后的配置页面,修改最上边的上下文长度。还可以调节跑模型时候,分配给 GPU 和 CPU 的性能比例。那个 GPU 的设置名字挺奇怪,【GPU 卸载】可以理解为【GPU 负载】。