1
cairnechen 2 天前
|
2
longxinglink 2 天前
可以注册 ollama ,有这些免费模型
mistral-large-3:675b cogito-2.1:671b kimi-k2.5 ministral-3:14b gemma3:12b glm-4.6 glm-4.7 qwen3-coder-next gpt-oss:20b minimax-m2 minimax-m2.5 gemma3:27b rnj-1:8b glm-5 deepseek-v3.1:671b minimax-m2.7 devstral-small-2:24b qwen3.5:397b nemotron-3-super kimi-k2:1t kimi-k2-thinking qwen3-coder:480b gemini-3-flash-preview gpt-oss:120b qwen3-vl:235b ministral-3:3b devstral-2:123b gemma3:4b deepseek-v3.2 gemma4:31b qwen3-next:80b nemotron-3-nano:30b qwen3-vl:235b-instruct ministral-3:8b minimax-m2.1 glm-5.1 |
3
liuxu 2 天前
直接 codex 一步到位
|
4
EasonYan 1 天前
glm 给的配额也太少了,只有 minimax 勉强够用
|
5
ClericPy 1 天前
@longxinglink 看到有个老外评测各种模型,买的 pro 套餐量很足,就想知道它这个网络连通性需要科技么
刚退了 copilot ,找不到靠谱的就想直接买 minimax highspeed 了。 不知道 ollama 那边模型 tokens/s 能到多少,20 刀挺实惠 |
6
longxinglink 1 天前 @ClericPy Anycast/google.com 可直连,沿海 TCP 100ms 内,自用 API 丢到 Render 免费档跑了三个月没封我号,
不同模型 tokens/s 有差别,比 nvidia 快,但是免费档模型选择和并发使用量都比 nvidia 少, 注册需要 gmail Oauth ,尝试过域名邮箱注册都被风控拒绝了。注册给 API 写代码推荐 chatgpt.com ,codex free 账户和 Pro 账户使用模型一样,2.2 美元 5 小时限制,用完换账户就行 |
7
qf19910623 18 小时 21 分钟前
claude code 能不能用,我不想换工具
|
8
ClericPy 7 小时 30 分钟前
ollama cloud 试了免费的,马马虎虎不快不慢的
买了一个月 opencode go ,官方文档给的方式没法直接配到 cc 里,靠 complete 接口开代理( cc-switch )用上了,速度不是很快的感觉 准备试试 highspeed 的 M2.7 唉,如果能有个平替 GLM5 turbo 的也行,这东西首 token 也快 TPS 也高,太爽了。。。最后实在没选的再看看买它吧,续费不让用 starter 套餐了 |
9
ClericPy 7 小时 28 分钟前
@qf19910623 没点到回复你。看上面吧
opencode go 折腾一晚上,最后还是靠代理模式转的。 ollama 倒是一下就配置好了,也是代理模式 点测试就没比 glm5 turbo 快的( 600ms ),其他所有国内外的都 2s+ |