Contextualist 最近的时间轴更新
Contextualist

Contextualist

V2EX 第 168698 号会员,加入于 2016-04-17 17:49:12 +08:00
今日活跃度排名 5773
LLM 综述:猫娘 Mixtral 与近半年 LLM 进展的杂谈
  •  3   
    OpenAI  •  Contextualist  •  116 天前  •  最后回复来自 Contextualist
    22
    LLM 研究 3: LLM 是天生的猫娘扮演者
  •  1   
    OpenAI  •  Contextualist  •  2023-04-17 13:21:04 PM  •  最后回复来自 Contextualist
    5
    LLM 研究 2:猫娘 Claude 与高层级相关性
  •  6   
    OpenAI  •  Contextualist  •  2023-03-29 17:43:44 PM  •  最后回复来自 ALLROBOT
    21
    测试 V2EX Markdown 对 HTML 的支持
    沙盒  •  Contextualist  •  2023-03-27 07:03:33 AM
    原创研究:猫娘 GPT 与注意力机制
    OpenAI  •  Contextualist  •  2023-03-10 10:53:13 AM  •  最后回复来自 rokycool
    24
    又一个命令行文件传输,这次用边缘函数做 TCP 打洞
    分享创造  •  Contextualist  •  2023-01-29 18:34:43 PM  •  最后回复来自 Contextualist
    26
    Makefile 中需要占用多个进程的 target 如何合理并行?
    问与答  •  Contextualist  •  2022-08-24 00:47:11 AM  •  最后回复来自 Contextualist
    2
    parameter pack 仅作为部分参数的问题
    C++  •  Contextualist  •  2022-07-02 09:20:03 AM  •  最后回复来自 geelaw
    6
    Contextualist 最近回复了
    2 天前
    回复了 luin 创建的主题 分享创造 自己全职做的开源项目: Quill 2.0 发布了!
    感谢作者,几年前的项目就开始在用 Quill ,记得那时候是少数对 operational transformation 支持非常好的库
    感动,有生之年系列啊!我还以为 package.json 里 "quill": "^2.0.0-dev.4" 这一行永远没机会改了
    6 天前
    回复了 moayuisuda 创建的主题 分享创造 做了个互动式的乐理网站
    诶,今天才在推特上看见 https://music-theory.aizcutei.com/ 这个项目,也是楼主翻译的。可以讲讲两个项目背后的故事吗?
    34 天前
    回复了 neteroster 创建的主题 OpenAI Claude 3 Haiku 已经可用
    我的某个创业朋友表示已经把主要业务逻辑从 GPT-4-Turbo 切换到 Claude 3 Opus 了,说是 Opus 在逻辑推理和遵循指令上有明显优势。这让我对 Claude 仅擅长行文修辞的老印象有所改变了。
    经过了之前的低迷期,Anthropic 似乎又支棱起来了啊
    62 天前
    回复了 sNullp 创建的主题 Mastodon A Love Letter to Fediverse
    写得很清晰的科普!
    (假设 Fediverse 成为主流,) Fediverse 最终会走向由寡头实际控制的未来吗?
    今日份欢乐,ALOHA 失败集锦
    https://twitter.com/dotey/status/1743396313704649064
    不过这机器人的 few-shot learning 确实了得。
    @mwVYYA6 可恶,被发现了>///<
    @Genii @siriussilen
    模型: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story
    对应的 quantization: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story-GGUF

    @siriussilen 谢谢纠正!严谨地说,这个模型是拿 8 个原本独立的 7b 模型用 Mixtral-8x7b 架构组装在一起而成的。那 8 个独立的 7b 模型是用各自的数据集分别精调的。
    @showgood163 确实,我自己实际使用体验是显存占用维持在 25.9G 左右
    @neteroster 赞同啊,不过 NovelAI 被迫开源这一段往事哈哈哈。另外,本地 LLM 的成本还不够平民化,不过应该是本年之内能解决的问题了

    @neteroster @hellojay Stable Diffusion 的新动向我有几个月没关注了,现在就偶尔拿之前的 prompt 生成几张。等我哪天见到新突破或许会开坑(不过浓度太高的话可能去 Bangumi 发?
    @showgood163 嘿嘿谢谢关注。对的,25GB 对应 4bits quantization ,100GB 对应官方全量的模型 (float16 ,用 Flash Attention 2) 。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   4598 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 10:02 · PVG 18:02 · LAX 03:02 · JFK 06:02
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.