V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  nexmoe  ›  全部回复第 1 页 / 共 9 页
回复总数  161
1  2  3  4  5  6  7  8  9  
1 小时 40 分钟前
回复了 nexmoe 创建的主题 分享创造 Free QWQ - 世界首个免费无限制分布式 QwQ API
@Charon2050 怎么说,比如哪些模型
@lovestudykid #34 只有一些简单的动画,下周让前端优化一下
@Amose2024 #28
@lloovve

用户电脑质量参差不齐,我们还没有做好稳定性检测。目前提供了 50 个节点,有些节点质量还不错,有些节点质量比较差,可以看图。

![44b6ff6fb691deeff0da9b60291ec9f6.png]( https://i.dawnlab.me/44b6ff6fb691deeff0da9b60291ec9f6.png)
@Psily1017 以后有技术实力了狠狠优化
@JZen 确实,带宽是个很大问题
@RiESA 知情的,用户得手动接入
@0312birdzhang 已优化
@agood 但这就是客观事实啊,熬大夜通宵赶出来,那不就是抢快吗。
我们本质上做分布式平台的,世界上也确实没有把 QwQ 32B 跑在分散的家用电脑上的。
之前 DeepSeek 7B 就是完全免费,但是需要登录。现在 QwQ 32B 直接就是免费且没有限制,API KEY 都直接给出来了,登录注册都不需要。
刚刚把 16G 显存以下节点撤了,只有下面几种显卡类型了。
NVIDIA GeForce RTX 4090 Laptop GPU
NVIDIA GeForce RTX 4090 D
NVIDIA GeForce RTX 4090
NVIDIA GeForce RTX 3090 Ti
NVIDIA GeForce RTX 3090
NVIDIA only 4090 laptop
@ccloving
@molezznet

估计是跑在 3080 上了,准备把 3080 下了。然后有些节点可能还没预热成功,命中了没预热的节点就会很慢
@cat9life 我们就是为了商业引流的,但是会一直提供免费模型,只要模型能在消费级显卡上单卡跑
@scyuns 刚刚发现 curl 命令的 body 写错了,已经纠正了
@ucaime 会有几个固定永久免费的模型。之前是 DeepSeek 7B ,现在是 QwQ 32B ,未来也会有新模型。
不知道有没有人做类似 Figma 那种模式的评论,团队协作场景需求不小
15 天前
回复了 nexmoe 创建的主题 分享创造 LM Speed - 大语言模型速度测试评测平台
@luoyide2010 如果有对了解 api 接口速度的需求。那就证明产品需求是存在的。后面改测量策略就行了
17 天前
回复了 nexmoe 创建的主题 分享创造 LM Speed - 大语言模型速度测试评测平台
@tycholiu 只用 3 个月有效,没啥用
完全免费、无限制、无需要注册登录+1
https://hadoop.nexmoe.com/
才发现 Cloudflare R2 在国内不能用了,切了个国内的 S3
牛逼,和小舒同学搭配很合适
1  2  3  4  5  6  7  8  9  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2733 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 07:47 · PVG 15:47 · LAX 23:47 · JFK 03:47
Developed with CodeLauncher
♥ Do have faith in what you're doing.