V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
westisc
V2EX  ›  程序员

国产 coding plan 哪个最推荐?

  •  
  •   westisc · 3 月 10 日 · 7293 次点击

    原本要高强度跟进 ai coding ,却被模型使用限制到了,目前中转站使用体验不佳,想尝试使用国产模型,目前看到有很多厂商推出了 coding plan ,有佬们推荐哪一个更优势不。 以下内容来自知乎

    单模型阵营(专卖店) 平台 核心模型 特色 最低月费 MiniMax M2.5 (10B 参数) 极速 100TPS ,SWE-bench 80.2 分 29 元 智谱 GLM GLM-5 (754B 参数) 推理能力最强,但刚涨价 30%+ 49 元 Kimi K2.5 视觉编程、多智能体协作 49 元

    全家桶阵营(超市) 一个套餐能用遍多模型,灵活性高

    平台 包含模型 最低月费 阿里云百炼 Qwen 、MiniMax 、GLM 、Kimi 等 8+模型 40 元(首月 7.9 元) 火山方舟 豆包、GLM 、DeepSeek 、Kimi 等 4 模型 40 元(首月 9.9 元)

    43 条回复    2026-03-12 16:33:03 +08:00
    NewYear
        1
    NewYear  
       3 月 10 日
    便宜的套餐不用看了,至少选中等套餐。

    公司掏钱的话直接选高级套餐。

    入门套餐大概率会遇到降智,要拉回来太费劲。
    saymoon
        2
    saymoon  
       3 月 10 日
    拼车 Google AI Ultra ,每月 ¥180 ,是目前最具性价比的方案了(有 Claud 4.6 OPUS 以及效果还不错的 Gemini 3.1 Pro 管饱),国内的各厂商看似价格便宜,实际使用起来无形的坑非常多(只是玩玩或学习问题不大,正经干活容易红温)
    jqknono
        3
    jqknono  
       3 月 10 日   ❤️ 2
    可以参考这个


    基于大家都在下午三点半进入工作状态的假设, 每日下午 4 点从 openrouter 抓取过去半小时的各供应商的延迟和 token 速率.

    https://jqknono.github.io/coding-plans-for-copilot/
    FrankAdler
        4
    FrankAdler  
       3 月 10 日 via Android
    都支持月付 也都不贵 挨个试一下呗 或者定期根据口碑切换下,反正也不建议年付,迭代太快了
    congyoubanmian
        5
    congyoubanmian  
       3 月 10 日
    我现在用 kimi 官方的还可以,之前选他是因为他是速率和智力比较均衡的 相比 glm 和 minimax 之前 glm 可以但是速度不行,minimax 速度快智力不行
    Liqiniu
        6
    Liqiniu  
       3 月 10 日
    @saymoon #2 有哪些拼车渠道吗?太需要稳定的 Gemini3.1 了😭
    saymoon
        7
    saymoon  
       3 月 10 日
    @Liqiniu 隔壁 L.do 跳骚版有挺多拼车的可以去看看,不知道为什么这边很少
    spediacn
        8
    spediacn  
       3 月 10 日 via iPhone
    @congyoubanmian 我也在用,对前端偷懒的我被他的美工迷住了
    qi19901212
        9
    qi19901212  
       3 月 10 日
    可以试试字节方舟,便宜的套餐选择某些模型的时候会卡,新出了 seed-code-2.0pro 还没有怎么尝试。我用在龙虾上感觉还行,使用我的链接可以打折( https://partner.volcengine.com/partner/invite/I7FVOZLFPUM ),😄
    wonderfulcxm
        10
    wonderfulcxm  
       3 月 10 日
    只有玩小龙虾需要,对我来说,coding 用 antigravity+codex 已经足够了
    qbqbq
        11
    qbqbq  
       3 月 11 日
    腾讯的不错,需要抢,目前速度很快
    Liver6
        12
    Liver6  
       3 月 11 日
    刚开了火山方舟的 CodingPlan ,开完发现竟然不支持 GLM5 ,只到 4.7 ,看了条款也不支持退款,想着配到 OpenCode 试用一下吧,没有预设的 Provider ,国内的基本上都有,就是没有火山这个,手动配吧,怎么配都是 NotFound ,Zed 配上也是 NotFound ,看了看 TRAE 配置上还勉强能用,送的 ArkClaw 也是拉的没边
    折腾一轮人累心累,贪小便宜吃大亏-300 ¥
    Liver6
        13
    Liver6  
       3 月 11 日
    @LucasChang #12 淦,检查发现是 api url 多贴了个字符,眼睛熬花了...社区支持还是差,GLM5 也磨磨唧唧没上,就这样吧
    iorilu
        14
    iorilu  
       3 月 11 日
    用命令行可以看 Codex ,用 IDE 可以看 Antigravity ,国产那些不用看。
    yhxx
        15
    yhxx  
       3 月 11 日
    你原来用的啥? CC 吗?遇到限制了可以切 sonnet ,也比国产这些效果要好
    westisc
        16
    westisc  
    OP
       3 月 11 日
    @yhxx 最近试用了 CC ,用的中转渠道的,体感十分的不稳定,官方的目前没开过,网上的内容好像封号特别厉害就没有去尝试开,目前打算先找一下拼车去用一下其他的大模型,比如昨天大规模中转站崩掉的 gpt-5.4 啥的
    ooppstef
        17
    ooppstef  
       3 月 11 日   ❤️ 1
    显然手 ali plan 。 国产 3 家各有特色,glm 推理最强,minimax 快+调用 tool 强,kimi 多模态。而 ali plan3 家都支持,量还大。火山遗憾的是不支持 glm5 ,minimax 也没支持。
    zhonghao01
        18
    zhonghao01  
       3 月 11 日   ❤️ 1
    我一直用的 GLM ,国产的话依据我自己使用过后的体验来推荐的话:kimi > GLM > minimax ,qwen 完全不推荐。
    westisc
        19
    westisc  
    OP
       3 月 11 日
    悲报, 阿里百炼 coding plan 不给我首月 7.9 开通优惠
    fbu11
        20
    fbu11  
       3 月 11 日
    国产的最低价格的那些套餐日常开发写代码不行的,同事有买的,明显有点拉
    caiyuan
        21
    caiyuan  
       3 月 11 日
    以我的经验,我不推荐使用国产。闲鱼拼 gpt ,最低 8 块钱一个月。最近 Coding 基本上都是打开 codex app 开始,IDE 有时候甚至都不需要开。
    lear7
        22
    lear7  
       3 月 11 日
    本来还想推荐下百度千帆的,昨天看 7.9 首月,今天恢复 40 元了,千万不要买他家的
    yuan321
        23
    yuan321  
       3 月 11 日
    @westisc 很稳定啊,你方法没搞对。直接在 apple store 买 cc 的订阅
    yuan321
        24
    yuan321  
       3 月 11 日
    @westisc 我都用了一年了,没听说过封号
    lionel14
        25
    lionel14  
       3 月 11 日
    @saymoon 还有车位吗
    saymoon
        26
    saymoon  
       3 月 11 日
    @lionel14 一直都有,自己去那边找吧
    LoNeZ
        27
    LoNeZ  
       3 月 11 日
    国产可以不用看...
    tina2998
        28
    tina2998  
       3 月 11 日
    感觉国产算力还是很缺,降智很频繁
    weiweicat123
        29
    weiweicat123  
       3 月 11 日
    @saymoon 隔壁 L.do 求指路
    saymoon
        30
    saymoon  
       3 月 11 日
    @weiweicat123 linux 点 do
    Misakas
        31
    Misakas  
       3 月 11 日
    国产模型在性价比上还能和国外打的有来有回,但是中转出现后基本就没得玩了,质量高一点的中转基本能做到 1 美元=0.6 人民币的价格

    之前一直淘宝买 Cursor ,三个月花了四五百块钱,后来研究中转,自己搭了一个: https://mirrorstages.com
    自用也给朋友用,四五百能买几千刀的额度 = =
    xuejianaitalk
        32
    xuejianaitalk  
       3 月 11 日
    那必须得推荐我每天都在用的了,https://aigocode.com/invite/JHK8VZAQ ,写代码直接起飞。
    westisc
        33
    westisc  
    OP
       3 月 11 日
    可能结果有点偏题,最终还是先尝试咸鱼买了一个 codex team 的进行开发测试
    csfreshman
        34
    csfreshman  
       3 月 11 日
    都体验过,目前在用 kim ,性价比高,单论模型效果比不上谷歌家的几个,太容易封号了
    GarethChu
        35
    GarethChu  
       3 月 11 日
    现在都没有首月优惠价了?
    frantic
        36
    frantic  
       3 月 12 日
    MiniMax 、GLM 以及阿里和讯飞的 coding plan 都体验过,gemini 都不如,更别说上面的 gpt-5.3-codex 或者 claude 4.x 了
    qiansimin88
        37
    qiansimin88  
       3 月 12 日
    @Misakas 能开发票吗
    jixule
        38
    jixule  
       3 月 12 日
    硅基流动最近有开工活动,领了几张优惠券,用 glm4.7 改一些小问题还是挺快的,也没出现过 429 之类的 bug
    ChristopherCheng
        39
    ChristopherCheng  
       3 月 12 日
    @saymoon #2 是基于 Antigravity 来使用吗?还是有其他更优雅的使用姿势?
    saymoon
        40
    saymoon  
       3 月 12 日
    @ChristopherCheng 反代容易封号,最好只用 antigravity ,虽然能封号后换绑,但一般车主都会提前约定不让反代,或封号最多换绑几次。
    ChristopherCheng
        41
    ChristopherCheng  
       3 月 12 日
    @saymoon #40 我也是不喜欢用一些奇巧方式,还是喜欢官方的 IDE 。之前是 Google AI Pro 用很快 Opus 额度就没了。最近一两个月都一直用 Kiro Pro ( 20 美元 1000 额度)感觉比较经用。不知道 Google AI Ultra 套餐下的 antigravity 额度消耗以及处理能力和同类型的 AI coding IDE 比较起来如何?(比如同样适用 Opus 4.6,cursor 应该是消耗最快的)
    szyhm
        42
    szyhm  
       3 月 12 日
    @westisc codex team 拼车用自己谷歌账号有风险吗,还是要先去搞个小号
    Misakas
        43
    Misakas  
       3 月 12 日
    @qiansimin88 可以呀
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3546 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 05:03 · PVG 13:03 · LAX 22:03 · JFK 01:03
    ♥ Do have faith in what you're doing.