左右不逢缘 发表于 2025-2-20 08:43:47

有没有老哥试过本地跑deepseek?

显卡是16g,估计只能带动14b的模型

有没有老哥试过用本地安装deepseek,然后生成文章的?

速度快不快

IT618发布 发表于 2025-2-20 08:44:02

部署本地要大量金钱,还是选择api划算一些、

浅生 发表于 2025-2-20 08:44:47

本地部署为啥需要大量金钱?

IT618发布 发表于 2025-2-20 08:45:12

你先花十几万买个主机

IT618发布 发表于 2025-2-20 08:45:56

api按量付费比较适合。

1.5B参数版本
内存:8GB
GPU:最低4GB显存,不要也可以,支持纯CPU推理

7B-8B参数版本
内存:16GB+内存
GPU:最低6GB显存,推荐 RTX 4070 或 RTX 4060等

32B参数版本
内存:32GB+内存
GPU:24GB显存(RTX 4090 24GB / RTX 5090 32G)


70B参数版本就要至少两个5090显卡,

671b硬件成本得几百万

浅生 发表于 2025-2-20 08:46:49

搞不起啊。

独家记忆 发表于 2025-2-20 08:47:05

大概十分钟1篇文章

Crystαl 发表于 2025-2-20 08:47:46

没试过,不知道啊。
页: [1]
查看完整版本: 有没有老哥试过本地跑deepseek?