Home
Sign Up
Sign In
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member
Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
V2EX
›
程序员
大家帮忙看看跑本地大模型哪个方法更好点, 以及云端调用 api 的方法.
Hermitist
·
Mar 29
· 1196 views
This topic created in 34 days ago, the information mentioned may be changed or developed.
方法一:cherry studio 对接本地 Ollama 跑的大模型, 突破只能聊天的限制
方法二:AnythingLLM+llama.cpp ,可以自己配 gpu 和 CPU 分配。且占用资源少。
第二个问题:
一个任务最后如何做到 80%用本地模型, 最后 20%高精度/高密度的工作才扔给云端来最后进行收尾?
第三个问题:
如何薅羊毛使用云端 api, 比如通过注册机 24 小时产号, 然后本地搭建 sub2api 之类的调用 openai 之类的 token
P.S: 各位能推荐一个注册机吗?
还是大家直接用 cc-switch 呢?
期待各位指点, 不胜感谢.
本地模型
云端API
资源分配
1 replies
1
Hermitist
OP
Mar 29
自己测试了下, mac 无脑上 omlx, 然后龙虾对接曲线实现控制电脑, 操作浏览器.
第二个问题是模型路由模式,
https://github.com/QuantumNous/new-api/blob/main/README.zh_CN.md
这个可能可以.
About
·
Help
·
Advertise
·
Blog
·
API
·
FAQ
·
Solana
·
812 Online
Highest 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 26ms ·
UTC 20:31
·
PVG 04:31
·
LAX 13:31
·
JFK 16:31
♥ Do have faith in what you're doing.
❯