镖师 发表于 昨天 21:52

分享一下对deepseek的看法和几个模型对我们个人站长的实用性

DeepSeek最近真的是太火了,到处都在谈,一些完全不懂的也在谈,这只是一个模型。资本的世界真的太疯狂了。能宣传开也是好事全民开始尝试ai。我下载了               deepseek的两个模型8B和14B的,我CPU是6核的,内存64G。用8b的还行,14B的完全太慢了。显卡是AMD要用GPU太麻烦了。第一个是阿里千问的,第二个是deepseek官方api,第三个是腾讯混元,第四个是本地模型。感觉直接接入阿里百度腾讯豆包的官方api速度比本地电脑快多了。当然你的配置很高用4090可能产出速度会快很多。不知道有几个站长用4090的。顺便把火车头本地插件分享一下。import sysimport jsonfrom urllib import parseimport requests# 使用 requests 库调用 Ollama API# Ollama 的 API 地址OLLAMA_API_URL = "http://localhost:11434/api/generate"# 检查命令行参数长度if len(sys.argv) != 5:    print(len(sys.argv))    print("命令行参数长度不为5")    sys.exit()else:    LabelCookie = parse.unquote(sys.argv)    LabelUrl = parse.unquote(sys.argv)    PageType = sys.argv    SerializerStr = parse.unquote(sys.argv)    # 如果 SerializerStr 不是 JSON 字符串,尝试从文件中读取    if SerializerStr != '''{"''':      with open(SerializerStr, 'r') as file_object:            SerializerStr = file_object.read()            SerializerStr = parse.unquote(SerializerStr)    # 解析 JSON 数据    LabelArray = json.loads(SerializerStr)    # 如果页面类型是 "Save",调用 Ollama API    if PageType == "Save":      if LabelArray['文章标题词'].strip():            prompt = LabelArray['文章标题词']            # 调用 Ollama API            try:                response = requests.post(                  OLLAMA_API_URL,                  json={                        "model": "yasserrmd/Qwen2.5-7B-Instruct-1M:latest",# 替换为 Ollama 中的模型名称                        "prompt": prompt,                        "stream": False,# 是否启用流式输出                  },                  headers={"Content-Type": "application/json"},                )                # 检查响应状态                if response.status_code == 200:                  # 解析响应内容                  response_data = response.json()                  content = response_data.get("response", "")                  # 去除返回内容中的 * 号和 # 号                  content = content.replace('*', '').replace('#', '').replace('标题:', '')                  LabelArray['内容'] = content                else:                  print(f"Ollama API 调用失败,状态码: {response.status_code}")                  print(f"错误信息: {response.text}")            except Exception as e:                print(f"调用 Ollama API 时发生错误: {e}")    # 将 LabelArray 转换回 JSON 字符串并输出    LabelArray = json.dumps(LabelArray)    print(LabelArray)

独家记忆 发表于 昨天 21:52

当初考虑性价比买了AMD的玩黑神话结果发现生产兼容性太差

Crystαl 发表于 昨天 21:53

大哥,deepseek最近一直被老美攻击。不稳定的。还有,你的api秘钥咋申请的,我看一直在维护中。

独家记忆 发表于 昨天 21:53

前几天的。很慢没有什么用
页: [1]
查看完整版本: 分享一下对deepseek的看法和几个模型对我们个人站长的实用性

创宇盾启航版免费网站防御网站加速服务