fid 最近的时间轴更新
fid
ONLINE

fid

V2EX 第 589430 号会员,加入于 2022-07-29 17:47:35 +08:00
今日活跃度排名 706
fid 最近回复了
11 小时 7 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@liu731 显卡内存 8x24g ,正文写了的
13 小时 41 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@wantstark #18 我是一台机器多卡,暂时没有分布式条件,可能没有表述清楚
13 小时 42 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@Les1ie #20
1. q4km 量化多卡不太合适,目前尝试 72B awq 量化+LMdeploy ,参数级提升应该大于精度提升
2. 我协调一下显卡使用,应该能合理分配,毕竟多卡通信存在速度损失
3. qwen2.5 优于 deepseek 吧
4. 本地部署必要,100%无法联网,4o 还是太成熟了
13 小时 47 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@woscaizi #19 好的,感谢推荐!
13 小时 47 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@DreamingCTW #17 ollama 多卡不太行吧
13 小时 47 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@oldfans #15
ollama 确实不适合多卡。

目前方案是 LMdeploy ,比 vllm 好

我去用 72B 了哈哈

还是大参数量好,充分利用 gpu
13 小时 49 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@kenvix #14 多谢!这就去上 72B
13 小时 49 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@mythabc #13
1. 感谢建议,会着手解决
2. ollama 感觉确实是玩具 hh
3. 感谢推荐,我去了解一下
4. 确实,感觉现成的 open_webui 就行,兼容 openai api
13 小时 52 分钟前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@Azure99 #11
@Fanhz #12
感谢推荐 sglang !
1 天前
回复了 fid 创建的主题 程序员 8x4090 离线部署 Qwen2.5 求助
@Livid #6 等多来几台服务器试试集群(),目前环境较为封闭,可用设备只有一台 8x4090
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1076 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 19:11 · PVG 03:11 · LAX 11:11 · JFK 14:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.