V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
V2EX  ›  frantic  ›  全部回复第 1 页 / 共 20 页
回复总数  385
1  2  3  4  5  6  7  8  9  10 ... 20  
6 小时 38 分钟前
回复了 lynn1su 创建的主题 程序员 国家超算平台也出 coding plan 了
'国家超算平台'的所属公司我记得是个私企
8 小时 37 分钟前
回复了 zsj1029 创建的主题 程序员 最牛的终端开源了 warp,用过的来说说
感觉不如 ghostty ,快就是好、好就是快。 感觉更适合那些不太熟悉命令行的同学。
9 小时 56 分钟前
回复了 zuosiruan 创建的主题 VPS 你们的花云还好吗
已经恢复了。
11 小时 18 分钟前
回复了 zuosiruan 创建的主题 VPS 你们的花云还好吗
崩了,一直超时
13 小时 54 分钟前
回复了 babymonster 创建的主题 Local LLM 私有化部署大模型的“终点”是 Mac 还是 Nvidia?
mac studio 顶配二手价格都翻倍了
4 月 29 日
回复了 lyhiving 创建的主题 OpenAI Codex 最近的更新速度搭上火箭了吗?
比之前好很多,但感觉 cc 的进化速度还是差很多
4 月 28 日
回复了 mains 创建的主题 程序员 codex 周额度刷新了,提前了 21 小时,小赚
财大气粗,反观 A\真是笑话
你之前用的哪家? 一般来说 199 一个月的才够用
个人建议如果不是公司必须要求国内模型,最划算的只有 ChatGPT Plus , 无论是价格还是模型的能力
我现在有 kimi 和 GLM ( z.ai 涨价前买的) 的第二档的年包;
这几周用下来总结如下:
KIMI:
- 第一档用不了,hello 一下 5 小时限额就被耗掉了 4%
- 总体感觉还行,但是很慢;聪明度不如 GLM 5.1 ;额度不如 GLM 第二档的额度(); 优点:原生多模态;


GLM:
- 额度还行,稍微要约束点用。
- 个人感觉国内第一,GLM 5.1 应该介于 Claude 4.6 Sonnet - 4.6 Opus 之间。但是也很慢,而且不支持多模态;


慢指的是:相同的一个任务,你用 GPT 5.5 可能 5 分钟搞完的事情,Kimi 和 GLM 基本要 30 分钟以上。
4 月 24 日
回复了 tianjiyao 创建的主题 DeepSeek DeepSeek V4 终于出来了。。不知道强不强
v4-flash 是真的便宜,好几次调用才一分钱
4 月 22 日
回复了 cat9life 创建的主题 Claude A\不做人了,取消 Pro 订阅的 CC 使用
@justdoitzZ GLM5.1 70%的 Claude 4.6 Sonnet 的能力肯定有甚至更多
4 月 17 日
回复了 frantic 创建的主题 Claude Code claude code 报错 unsupported countries
@BanShe 我代理切到了 tw, 然后又切回去 us, 就出现这个错误了;在未更新 claude code 之前也这样操作过,但从来没见过这种报错
4 月 17 日
回复了 hellodigua 创建的主题 程序员 2026 年了,这个世界还存在互联网精神🥹
cooool!
4 月 15 日
回复了 MoGeJiEr 创建的主题 Claude claude 认证莫慌
A➗真的是 csdx
对话几轮就没了,我已经退订了 google 的 ai plan 了
可以去这个 issue 上反馈下,应该是 bug https://github.com/openai/codex/issues/14593
1  2  3  4  5  6  7  8  9  10 ... 20  
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   1558 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 16:31 · PVG 00:31 · LAX 09:31 · JFK 12:31
♥ Do have faith in what you're doing.