腾讯新闻的一篇报道( https://news.qq.com/rain/a/20260106A03XDU00 ),说是陈天桥和季峰团队打响了 2026 大模型第一枪。
文中的核心卖点是:30B 参数规模的模型跑出了 1T 参数的性能。里面提到了一些刷榜数据:
HLE-Text: 39.2%
BrowseComp: 69.8%
GAIA-Val-165: 80.8%
说实话,看文章描述感觉挺玄学的,又是“交互内化进推理”,又是“用确定性对抗不确定性”。
作为一个普通开发者,我想请教下站里的大佬:
1.现在 30B 真的能通过架构优化或者推理侧的改进,跨两个量级去打 1T 的模型吗?
2.文中提到的这些测试集(比如那个 HLE 人类终极测试)含金量如何?
3.这种“做题家模式 vs 科学家模式”的提法,在实际落地场景中意义大吗?
想听听大家的真实看法。我试了他们的官网产品 dr.miromind.ai ,除了速度比较慢,好像质量还挺高。
1
DABOBO 9 天前
好用,我用的场景不多,但比 gemini pro 可是强多了。
|
2
zhyf007 8 天前
MiroThinker 1.5 的突破点不在于颠覆 Scaling Law ,而在聚焦“交互与推理”,在参数规模之外找到了新的效能提升路径。你试用时感觉“速度慢但质量高”,很可能是因为它在后台执行了多次搜索、比对和验证步骤,这是高质量输出的代价。
|