有没有老哥试过本地跑deepseek?
显卡是16g,估计只能带动14b的模型有没有老哥试过用本地安装deepseek,然后生成文章的?
速度快不快 部署本地要大量金钱,还是选择api划算一些、 本地部署为啥需要大量金钱? 你先花十几万买个主机 api按量付费比较适合。
1.5B参数版本
内存:8GB
GPU:最低4GB显存,不要也可以,支持纯CPU推理
7B-8B参数版本
内存:16GB+内存
GPU:最低6GB显存,推荐 RTX 4070 或 RTX 4060等
32B参数版本
内存:32GB+内存
GPU:24GB显存(RTX 4090 24GB / RTX 5090 32G)
70B参数版本就要至少两个5090显卡,
671b硬件成本得几百万 搞不起啊。 大概十分钟1篇文章 没试过,不知道啊。
页:
[1]