V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
DataPipe
V2EX  ›  推广

大家试过 Meta 新开源的 Llama3-70b 大模型了吗,快是真快,但感觉不如 GPT-4 稳

  •  1
     
  •   DataPipe · 240 天前 · 1683 次点击
    这是一个创建于 240 天前的主题,其中的信息可能已经有所发展或是发生改变。

    昨天问了一个关于 Caddy 配置的问题,速度是真快,但即使使用中文提问,Llama3 还是默认使用英语来回答,除非你明确让它使用中文。

    最后它给出的 Caddy 配置,我发给 GPT-4 ,GPT-4 说这个配置不是合法的 Caddy 配置,配置也确实不对😂。

    下面是与 Llama3-70b 的对话记录: https://c.datapipe.top/share/ee36713e627fd045dbeb3e5fc27c4ab6

    试用下来感觉还是 GPT-4 好用,回答可信一些。

    同时支持 GPT-4, Claude3, Llama3, Kimi 等大模型,注册送体验额度,想体验的可以看下

    https://datapipe.top

    8 条回复
    unbridle
        1
    unbridle  
       240 天前
    Llama3-70b 需要多少显存?
    YongXMan
        2
    YongXMan  
       240 天前
    @unbridle 至少两张 4090
    laminux29
        3
    laminux29  
       240 天前
    你对大模型的期望是:快 + 准 + 智能,但是现在全世界的算力、存储能力以及语料库,都达不到这个要求。

    目前代码类的问题,OpenAI 的 GPT4 与 Google Gemini 各有千秋,原因是双方的算力与数据集各不相同,Meta 当然也会有这个问题。

    现阶段,同时使用多个 AI ,互补长短,才是最佳方案。这类似于现实中开大会一样,集群众优势。
    unbridle
        4
    unbridle  
       240 天前 via iPhone
    @YongXMan 谢谢回答!看来目前自己部署还是希望不大呀
    Ethanccc
        5
    Ethanccc  
       240 天前
    @unbridle #4 没必要自己部署,groq 可以免费调,速度还贼快,我搞了十个拿来做沉浸式翻译了
    unbridle
        6
    unbridle  
       240 天前
    @Ethanccc #5 哈哈哈谢谢推荐!俺去瞅瞅
    bravecarrot
        7
    bravecarrot  
       239 天前 via iPhone
    要 400b 的才能赶上 gpt4 啊
    DataPipe
        8
    DataPipe  
    OP
       239 天前
    @bravecarrot 💪🏻
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1015 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 21ms · UTC 22:25 · PVG 06:25 · LAX 14:25 · JFK 17:25
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.