V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  naclfish2333  ›  全部回复第 1 页 / 共 1 页
回复总数  5
忘记在哪里看到一个说法了,多模态模型 8b 、9b 这样的大小效果已经不错了,参数量提升带来的效果提升不是很明显
曾经开一台宝骏 e200 开了一年

剁椒鱼头非常不推荐,要开国道安全性太差太差了。那个车给我的唯一感觉就是开到 80 以上,出什么事情绝对是非死即残的。

这种车重量轻、轴距短、轮胎差加上电机扭矩大,宝骏 e200 是电门踩大一点就打滑,下雨天开快一点就会推头,其他后驱的怕不是给一脚电就会在马路上转圈圈,网上看到的这种老头乐失控的视频还真不少。

同时这个车的低配居然是减配了 esp 、安全气囊这种安全配置,给我一种这个企业不把安全当一回事的感觉。

更推荐是买一个二手的正经电车,这种老头乐是在不上高架不上国道的小城市里面方便违停用的
161 天前
回复了 andforce 创建的主题 程序员 约 192GB 短信样本如何标记分类?
@yuxizhe 能不能跑起来主要看显存,glm-4 是 9B 的模型,全精度大概要占用到 17G 左右的显存。3090 单卡好像是 25G 左右,是足够了,但是 vllm 这个框架的策略是尽量占满显存的。

至于效果,只能是差强人意,我是要求模型分析词语和某个领域的相关性。直接输出输出一个 1 到 5 的数字,代表这个词和这个领域的相关性。

最后确实是可以正确分类,但是可能是 prompt 没写好或者分类的颗粒度分得太细了,导致分类的结果不是很一致。比如“电阻”模型会给出“5”,但是“电容”又会给出“4”。
162 天前
回复了 andforce 创建的主题 程序员 约 192GB 短信样本如何标记分类?
使用大模型并没有 op 想象的那么久,我之前才用 vllm 部署 glm-4 ,用 3090 一个下午就把整个中文维基的标题分类完了。那个数量差不多也是几百万条。

注意,一定是用 vllm 部署,这个框架的并发能力强的可怕。部署完就 python 写个脚本,并发写到 500 干他就完了。
怠速不稳有可能是和前后氧传感器或者节气门积碳有关,这两个地方一般燃油清洁剂是没法触及到的。加清洁剂没用,可以尝试去修理厂叫帮忙检查一下,或者自己动手能力强也可以自己洗一下试试
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1069 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 16ms · UTC 22:49 · PVG 06:49 · LAX 14:49 · JFK 17:49
Developed with CodeLauncher
♥ Do have faith in what you're doing.