DeepSeek 挤爆了!教你3步部署个本地版本,包括前端界面

这年还没开始,DeepSeek 先被挤爆了。

晚上想用来回答下某乎的热榜问题,直接无线循环显示「不好意思,聊天的人过多」。

看来这泼天的流量给的压力有点太大了。中美 App Store 都给干成 Top 1 了,这你受得了吗?

看到有些人无脑喷的,请你自己去试用一下,不就知道到底行不行了?这总不能跑美区去刷榜吧。

不过现在好了,直接都无法服务了,只能再找找其他方式了。

本地部署

下载 Ollama

本地部署是要用到 Ollama,它能支持很多大模型。

官方网站:https://ollama.com/

点击 Download 即可,支持 macOS,Linux 和 Windows。

我下载的是 mac 版本,解压安装后,即可在电脑中找到对应应用。

下载 DeepSeek-R1

再在网页上点击 Models,即可看到 deepseek-r1 模型,热度可见一斑。如果没有的话,在搜索框输入对应关键词即可。

选择对应的模型来下载即可。

不明白怎么选可以问下 AI,DeepSeek 不堪重负,只能先用 Kimi 的 k1.5 Loong Thinking 先顶一下了。

根据描述,如果 mac 只有16G 左右的内存,保守点就是选择 7B 左右的模型,毕竟开启其他的应用还得需要一定的空间。最小的 1.5B 模型,也得有 4GB 的显存。

选择好模型后,在应用列表页面,找到「控制台」,输入对应指令ollama run deepseek-r1:7b,便会进入下载。

等待一段时间后,就会显示success,即可输入信息与本地大模型进行对话。

测试

前面得到的模型信息里,提到 7B 适合中等规模的文章处理情况。直接测试下应景的写对联。

WebUI

可是这命令行窗口始终差点意思,操作起来也不方便。没事,咱们也有办法弄一个有格调的界面。

在终端或命令行工具中运行以下命令,安装 Open-WebUI:pip install open-webui

如果 pip 版本较低,可以更新下python -m pip install --upgrade pip

完成后,输入open-webui serve即可看到下面的界面。

再打开http://localhost:8080/(注意端口不要被其他占用了),看到下面的 UI 界面,注册 Admin 信息。

进入到正式界面,即可看到我们提前下载好的模型deepseek-r1:7b

这下本地就有一个可以随时可以聊天的大模型了,还有用户友好的界面,无惧各种问题,随时随地可用。

来设计一个网页试试,但这 7B 模型代码能力着实一般,审美有待提高,但还有预览功能。

如果能有个性能强大一点的主机,部署更大的模型,那真真是唾手可得了。

总结

最近 DeepSeek 甚至限制了非 +86 手机号的注册,有网友戏称「让他们也试试买号是啥体验」。

甚至把 OpenAI 的奥特曼都惊得不得不坐起来卷了。

DeepSeek 的 R1 是一个令人印象深刻的模型,尤其是在性价比方面。

显然,我们会推出更好的模型,而且有一个新的竞争对手确实令人振奋!我们会加快发布进度。

这一次,国人的 AI 时刻可能真的来了。

原文链接:,转发请注明来源!