找回密码
 立即注册
  • QQ空间
  • 回复
  • 收藏

笔记本deepseek本地部署32b要什么配置

小白不是很懂
想本地部署deepseek+知识库,目前网上看到的方案基本是ollama+anythingLLM/cherry studio
但是ollama部署32b好像需要24g显存
想问一下如果要买一台笔记本可以跑32b模型有什么比较好的选择?
倾向性价比方案应该选游戏本还是mac,或者有没有可能扩展坞外接显卡
有无大神指教一二
回复

使用道具 举报

大神点评(8)

Richardtuh 2025-2-5 13:50:03 显示全部楼层
笔记本扩展性不如台式,而且价格也偏高,散热也是个问题。我不太推荐你用笔电玩DeepSeek
笔记本deepseek本地部署32b要什么配置-1.png
此外,我没有Apple设备,不好说
回复 支持 反对

使用道具 举报

xiao_cao 2025-2-5 13:50:16 显示全部楼层
32g内存+4090显卡,勉强能跑
回复 支持 反对

使用道具 举报

biergaici 2025-2-5 13:51:05 显示全部楼层
推荐40系显卡,如果没有最好不要急着上32b,搞个14b也差不多了,或者7b
回复 支持 反对

使用道具 举报

j49288103 2025-2-5 13:51:30 显示全部楼层
建议租个服务器
笔记本deepseek本地部署32b要什么配置-1.png
回复 支持 反对

使用道具 举报

bigworm 2025-2-5 13:51:41 显示全部楼层
基本别想了 我台式4070显存跑32b直接爆了 我估计得4090才跑的动
笔记本deepseek本地部署32b要什么配置-1.png
回复 支持 反对

使用道具 举报

艾的民 2025-2-5 13:52:09 显示全部楼层
笔记本4070可以32b,但需要用上共享显存,回复比较慢
回复 支持 反对

使用道具 举报

kpzjm60 2025-2-5 13:53:03 显示全部楼层
2080TI 22G显存的能不能跑32B
回复 支持 反对

使用道具 举报

hank4459801 2025-2-5 13:53:30 显示全部楼层
搞个12g显存的就行了,GitHub里已经有量化好的模型,保险起见挑一个32g内存的吧,越快越好,就算找不到合适的模型,那内存跑也不至于太慢
回复 支持 反对

使用道具 举报

说点什么

您需要登录后才可以回帖 登录 | 立即注册
HOT • 推荐