分享一下对deepseek的看法和几个模型对我们个人站长的实用性
DeepSeek最近真的是太火了,到处都在谈,一些完全不懂的也在谈,这只是一个模型。资本的世界真的太疯狂了。能宣传开也是好事全民开始尝试ai。我下载了 deepseek的两个模型8B和14B的,我CPU是6核的,内存64G。用8b的还行,14B的完全太慢了。显卡是AMD要用GPU太麻烦了。第一个是阿里千问的,第二个是deepseek官方api,第三个是腾讯混元,第四个是本地模型。感觉直接接入阿里百度腾讯豆包的官方api速度比本地电脑快多了。当然你的配置很高用4090可能产出速度会快很多。不知道有几个站长用4090的。顺便把火车头本地插件分享一下。import sysimport jsonfrom urllib import parseimport requests# 使用 requests 库调用 Ollama API# Ollama 的 API 地址OLLAMA_API_URL = "http://localhost:11434/api/generate"# 检查命令行参数长度if len(sys.argv) != 5: print(len(sys.argv)) print("命令行参数长度不为5") sys.exit()else: LabelCookie = parse.unquote(sys.argv) LabelUrl = parse.unquote(sys.argv) PageType = sys.argv SerializerStr = parse.unquote(sys.argv) # 如果 SerializerStr 不是 JSON 字符串,尝试从文件中读取 if SerializerStr != '''{"''': with open(SerializerStr, 'r') as file_object: SerializerStr = file_object.read() SerializerStr = parse.unquote(SerializerStr) # 解析 JSON 数据 LabelArray = json.loads(SerializerStr) # 如果页面类型是 "Save",调用 Ollama API if PageType == "Save": if LabelArray['文章标题词'].strip(): prompt = LabelArray['文章标题词'] # 调用 Ollama API try: response = requests.post( OLLAMA_API_URL, json={ "model": "yasserrmd/Qwen2.5-7B-Instruct-1M:latest",# 替换为 Ollama 中的模型名称 "prompt": prompt, "stream": False,# 是否启用流式输出 }, headers={"Content-Type": "application/json"}, ) # 检查响应状态 if response.status_code == 200: # 解析响应内容 response_data = response.json() content = response_data.get("response", "") # 去除返回内容中的 * 号和 # 号 content = content.replace('*', '').replace('#', '').replace('标题:', '') LabelArray['内容'] = content else: print(f"Ollama API 调用失败,状态码: {response.status_code}") print(f"错误信息: {response.text}") except Exception as e: print(f"调用 Ollama API 时发生错误: {e}") # 将 LabelArray 转换回 JSON 字符串并输出 LabelArray = json.dumps(LabelArray) print(LabelArray) 当初考虑性价比买了AMD的玩黑神话结果发现生产兼容性太差 大哥,deepseek最近一直被老美攻击。不稳定的。还有,你的api秘钥咋申请的,我看一直在维护中。 前几天的。很慢没有什么用
页:
[1]