昨天问了一个关于 Caddy 配置的问题,速度是真快,但即使使用中文提问,Llama3 还是默认使用英语来回答,除非你明确让它使用中文。
最后它给出的 Caddy 配置,我发给 GPT-4 ,GPT-4 说这个配置不是合法的 Caddy 配置,配置也确实不对😂。
下面是与 Llama3-70b 的对话记录: https://c.datapipe.top/share/ee36713e627fd045dbeb3e5fc27c4ab6
试用下来感觉还是 GPT-4 好用,回答可信一些。
同时支持 GPT-4, Claude3, Llama3, Kimi 等大模型,注册送体验额度,想体验的可以看下
1
unbridle 240 天前
Llama3-70b 需要多少显存?
|
3
laminux29 240 天前
你对大模型的期望是:快 + 准 + 智能,但是现在全世界的算力、存储能力以及语料库,都达不到这个要求。
目前代码类的问题,OpenAI 的 GPT4 与 Google Gemini 各有千秋,原因是双方的算力与数据集各不相同,Meta 当然也会有这个问题。 现阶段,同时使用多个 AI ,互补长短,才是最佳方案。这类似于现实中开大会一样,集群众优势。 |
7
bravecarrot 239 天前 via iPhone
要 400b 的才能赶上 gpt4 啊
|
8
DataPipe OP @bravecarrot 💪🏻
|