麦克雷 Mavom.cn

标题: 在PC上本地部署DeepSeek [打印本页]

作者: t02478078    时间: 前天 12:23
标题: 在PC上本地部署DeepSeek
使用Ollama在MacOS,Linux和Windows上运行DeepSeek模型

(, 下载次数: 0)
配置要求:
Windows 10 及以上
您可能需要显示卡
可用内存 16 - 32 GB DDR4 及以上
可用储存 以下表格详细列出了模型所需的硬盘空间

(, 下载次数: 0)
////////
部署步骤
//
1,访问 Ollama 处,根据你的操作系统下载对应的安装包。待安装完成后,打开终端或命令行工具,输入以下命令验证安装是否成功:
ollama --version
如果一切正常,则会显示版本号。

(, 下载次数: 0)
2,在命令提示符处,请键入:
ollama pull deepseek-r1
//
3,若要查看已下载的模型,可键入:
ollama list
//
4,运行 DeepSeek,请键入:
ollama run deepseek-r1
////////
此外,Ollama 还提供了简单的 HTTP API,这是一个例子:
import requests url = "http://localhost:[设置的端口号]/api/generate" data = { "model": "deepseek-r1", "prompt": "hello, DeepSeek" } response = requests.post(url, json=data) for line in response.iter_lines(): if line: print(line.decode('ASCII'))
作者: t02478078    时间: 前天 12:23
这是楼主的PC配置单,可能有些老了,以供参考
(, 下载次数: 1)
内存:32GB DDR4
储存:512GB SSD
处理器:3.8GHz AMD Ryzen 7 5800X
显示卡:NVIDIA RTX 3090 (24GB)




欢迎光临 麦克雷 Mavom.cn (https://mavom.cn/) Powered by Discuz! X3.5