对于程序员来说,使用 Ollama 通过命令行部署模型并不难,但对大多数人来说,命令行的复杂配置和繁琐的操作可能让人望而却步。好在现在有了 LM Studio 这样的图形化工具,普通用户也能轻松搞定模型的本地部署。
通过 LM Studio,不需要任何编程基础,你就能在自己电脑上运行 DeepSeek R1 模型,随时随地和它对话,甚至可以将它集成到自己的应用中。
本文就以 LM Studio + Lobe Chat 为例,完全在本地实现一套实用又美观的 DeepSeek 方案。
最终效果展示
通过 LM Studio 部署和使用 R1 模型
先了解一下 LM Studio,这是一款图形化界面的应用,专为简化本地部署和使用大型语言模型而设计。它自动检测你的电脑硬件,并根据配置推荐适合的模型,极大地降低了技术门槛。
安装 LM Studio:首先,你需要从 LM Studio 官网下载并安装该应用。安装过程非常简单,按照提示完成即可。
选择和下载模型:启动 LM Studio 后,点击左侧的「搜索」图标。在这个界面里搜索「DeepSeek R1」,可以看到结果中出现了 DeepSeek R1 Distill (Qwen 7B)
和 DeepSeek R1 Distill (Llama 8B)
这两个版本(Distill 的意思是蒸馏版)。
LM Studio 会根据你的电脑配置自动推荐适合的模型。以我使用的 Mac mini M4 为例,它会推荐适合该硬件的 Llama 蒸馏版 8B 模型。所以你只需要点击右下角的 Download 即可(这里我已经下载了显示的是 Use in New Chat)。
启动模型:下载完成后,点击 LM Studio 顶部的下拉框,选择刚刚下载好的模型,然后点击「加载模型」即可,LM Studio 会自动为你部署模型。
完成后,就可以点击左侧的聊天图标,进入对话界面了。LM Studio 提供了一个对话界面,你可以直接与 DeepSeek 对话。
关于模型参数量和精度等级
这里需要补充一些小知识,大语言模型的表现与模型的参数息息相关,7B 中的 B 就是 Billion,即 70 亿参数量。
模型下载列表中显示的 Q3_K_L 和 Q4_K_M 这些信息,是指 gguf 格式的模型量化时的精度等级,Q3_K_L 表示将权重量化为 3 位精度,而 Q4_K_M 则表示量化为 4 位精度。这个指标通常用于减少模型大小和加速推理速度。
- 你可以在这里了解更多精度等级的相关知识:GGUF quantizations overview · GitHub
我们在一台个人电脑上能用的模型通常在 1.5B ~ 70B 之间,而官网提供的是高达 671B 参数量的满血版本。因此两者的表现是一定会有差异的。
所以,我们在网上看到的各种「部署什么规格的模型需要什么显卡配置的表格」版本非常多,且极有可能是 AI 生成。因为你的电脑可能跑不起 14B 的 Q8 但可以跑得动 70B 的 Q2,这都是有可能的。
LM Studio 在这方面给了充分的参考,告诉你应该下载哪个版本的模型。我的建议是根据它提供的建议进行选择。即使你能勉强跑的动「过大」的模型,也可能会出现输出过慢之类的问题。
进阶操作:开放 API 进行第三方集成
如果你希望将 DeepSeek R1 的功能应用到其他软件或服务中,LM Studio 也提供了 API 支持,可以将模型作为 API 开放出来。这样,你就可以通过接口与本地部署的模型进行交互了。
启用 API 服务:在 LM Studio 中,点击左侧的「终端」图标,点击 Status 开关,就可以启用 API 服务。系统会自动为你生成一个 RESTful API 服务。通常开放在 http://内网 IP:1234 上(显示在右侧)。
案例:使用 Docker 部署 LobeChat 来接入本地模型
如果你希望进一步增强本地环境的功能,或是需要更强大的聊天平台,可以通过 Docker 部署 LobeChat。
LobeChat 是一个开放源代码的 AI 对话平台,它支持与多种语言模型集成,提供更多的插件和功能。可以去这里了解更多:🔗 Lobe Chat 中文介绍。
本文这里主要介绍如何本地部署 LobeChat 来接入刚刚部署好的 DeepSeek。
部署这个需要用到 Docker,如果你在自己的 Windows、macOS 设备上部署,可以先到 Docker 官网 下载 Docker Desktop 并按照要求安装。
安装完毕后,打开一个终端,运行以下命令来自动拉取和运行 Lobe Chat。
docker run -d -p 3210:3210 lobehub/lobe-chat:latest
完成后你就可以进入 http://127.0.0.1:3210 看到对话界面了。
接下来,你需要在设置中配置一个 OpenAI 语言模型,具体配置如下——
最后检查一下是否可以正确连接。
LM Studio 采用了 OpenAI 兼容接口,所以只要是「允许自定义 API 代理地址」+「自定义模型名称」的服务,都可以借用 OpenAI 连接器来实现连接,无需找单独的 LM Studio 接口。
这样你就实现了用外部服务去连接本地模型的功能,不过 DeepSeek R1 模型目前暂时不支持 Function Calling,导致无法使用 LobeChat 中的插件功能。
Lobe Chat 在 2025 年 1 月 15 日的 PR 中正式添加了对 LM Studio 的支持,不过目前暂时没有正式上线,具体原因可以查看开发者的回复,大意是这是一个 Breaking Change,还需要一些时间。
更多用途
此外,你也可以在 VSCode + Continue 的组合中配置 DeepSeek,来实现本地模型的问答。
你也可以通过部署一个 DDNS-GO、FRP 等服务,来实现公网映射,这样就可以把自己的模型暴露到公网,通过公网的服务直接使用。
小结
使用 LM Studio 部署和使用 DeepSeek R1 模型非常简单,即便是零基础的用户也可以通过图形化界面快速上手。你可以直接与模型进行对话,或者通过 API 将其集成到其他应用中。不再被「服务器繁忙,请稍后再试」所困扰。