这年还没开始,DeepSeek 先被挤爆了。
晚上想用来回答下某乎的热榜问题,直接无线循环显示「不好意思,聊天的人过多」。
看来这泼天的流量给的压力有点太大了。中美 App Store 都给干成 Top 1 了,这你受得了吗?
看到有些人无脑喷的,请你自己去试用一下,不就知道到底行不行了?这总不能跑美区去刷榜吧。
不过现在好了,直接都无法服务了,只能再找找其他方式了。
本地部署
下载 Ollama
本地部署是要用到 Ollama,它能支持很多大模型。
官方网站:https://ollama.com/
点击 Download 即可,支持 macOS,Linux 和 Windows。
我下载的是 mac 版本,解压安装后,即可在电脑中找到对应应用。
下载 DeepSeek-R1
再在网页上点击 Models,即可看到 deepseek-r1 模型,热度可见一斑。如果没有的话,在搜索框输入对应关键词即可。
选择对应的模型来下载即可。
不明白怎么选可以问下 AI,DeepSeek 不堪重负,只能先用 Kimi 的 k1.5 Loong Thinking 先顶一下了。
根据描述,如果 mac 只有16G 左右的内存,保守点就是选择 7B 左右的模型,毕竟开启其他的应用还得需要一定的空间。最小的 1.5B 模型,也得有 4GB 的显存。
选择好模型后,在应用列表页面,找到「控制台」,输入对应指令ollama run deepseek-r1:7b,便会进入下载。
等待一段时间后,就会显示success,即可输入信息与本地大模型进行对话。
测试
前面得到的模型信息里,提到 7B 适合中等规模的文章处理情况。直接测试下应景的写对联。
WebUI
可是这命令行窗口始终差点意思,操作起来也不方便。没事,咱们也有办法弄一个有格调的界面。
在终端或命令行工具中运行以下命令,安装 Open-WebUI:pip install open-webui
如果 pip 版本较低,可以更新下python -m pip install --upgrade pip
完成后,输入open-webui serve即可看到下面的界面。
再打开http://localhost:8080/(注意端口不要被其他占用了),看到下面的 UI 界面,注册 Admin 信息。
进入到正式界面,即可看到我们提前下载好的模型deepseek-r1:7b。
这下本地就有一个可以随时可以聊天的大模型了,还有用户友好的界面,无惧各种问题,随时随地可用。
来设计一个网页试试,但这 7B 模型代码能力着实一般,审美有待提高,但还有预览功能。
如果能有个性能强大一点的主机,部署更大的模型,那真真是唾手可得了。
总结
最近 DeepSeek 甚至限制了非 +86 手机号的注册,有网友戏称「让他们也试试买号是啥体验」。
甚至把 OpenAI 的奥特曼都惊得不得不坐起来卷了。
DeepSeek 的 R1 是一个令人印象深刻的模型,尤其是在性价比方面。
显然,我们会推出更好的模型,而且有一个新的竞争对手确实令人振奋!我们会加快发布进度。
这一次,国人的 AI 时刻可能真的来了。