V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Hermitist
V2EX  ›  程序员

大家帮忙看看跑本地大模型哪个方法更好点, 以及云端调用 api 的方法.

  •  
  •   Hermitist · Mar 29 · 1196 views
    This topic created in 34 days ago, the information mentioned may be changed or developed.
    方法一:cherry studio 对接本地 Ollama 跑的大模型, 突破只能聊天的限制
    方法二:AnythingLLM+llama.cpp ,可以自己配 gpu 和 CPU 分配。且占用资源少。



    第二个问题:
    一个任务最后如何做到 80%用本地模型, 最后 20%高精度/高密度的工作才扔给云端来最后进行收尾?


    第三个问题:
    如何薅羊毛使用云端 api, 比如通过注册机 24 小时产号, 然后本地搭建 sub2api 之类的调用 openai 之类的 token
    P.S: 各位能推荐一个注册机吗?

    还是大家直接用 cc-switch 呢?

    期待各位指点, 不胜感谢.
    Hermitist
        1
    Hermitist  
    OP
       Mar 29
    自己测试了下, mac 无脑上 omlx, 然后龙虾对接曲线实现控制电脑, 操作浏览器.

    第二个问题是模型路由模式, https://github.com/QuantumNous/new-api/blob/main/README.zh_CN.md 这个可能可以.
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   812 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 20:31 · PVG 04:31 · LAX 13:31 · JFK 16:31
    ♥ Do have faith in what you're doing.