V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
longchisihai
V2EX  ›  浏览器

有没有现成的 chrome 插件,能使用 gpt 一键翻译网页内容。

  •  
  •   longchisihai · 247 天前 · 4453 次点击
    这是一个创建于 247 天前的主题,其中的信息可能已经有所发展或是发生改变。

    RT ,小弟英语水平半吊子,如果有这个神器就可以事半功倍。

    40 条回复    2024-04-14 14:16:50 +08:00
    wheat0r
        1
    wheat0r  
       247 天前
    先用 deepl 凑合一下
    MeteorVIP
        2
    MeteorVIP  
       247 天前 via iPhone
    谷歌不是直接可以翻译整页吗?难道他翻译得不够好?
    robotcator
        5
    robotcator  
       247 天前
    monica 可以看看
    yoyoluck
        6
    yoyoluck  
       247 天前   ❤️ 1
    有个叫 沉浸式翻译 的挺好用的
    https://immersivetranslate.com/
    haoyu7
        7
    haoyu7  
       247 天前
    沉浸式翻译超棒
    SeleiXi
        8
    SeleiXi  
       247 天前 via Android
    sider
    Yzh361
        9
    Yzh361  
       246 天前 via Android
    自动翻译网页这么简单的事情…不是早就实现了嘛
    m1nm13
        10
    m1nm13  
       246 天前
    楼上说的沉浸式翻译的确可以,就是用 OPENAI API 的价格,太美丽了。。。根本顶不住

    所以我想问问有没有支持本地 ollama 之类的模型的翻译插件

    我找了半天,愣是没找到一个
    icaolei
        11
    icaolei  
       246 天前
    沉浸式翻译之前爆出“假开源”事件,参见:

    10k+ star 的项目也搞假开源 https://www.v2ex.com/t/961178
    沉浸式翻译这事,多说几句 https://www.v2ex.com/t/962364

    推荐一个开源实现: https://github.com/fishjar/kiss-translator
    已上架 Chrome Edge 商店,另外还有油猴脚本可选,作者也在 V 站:@fishjar
    Frankcox
        12
    Frankcox  
       246 天前
    @m1nm13 OpenAI Translator 好像支持 ollama 本地调用了
    icaolei
        13
    icaolei  
       246 天前
    @m1nm13 #10 https://github.com/fishjar/kiss-translator 这个开源的网页翻译插件支持自定义翻译接口,可能可以满足你的需求。
    ErYiii
        14
    ErYiii  
       246 天前
    @m1nm13 申请一个 Gemini 的 API key ,也能用。
    e1d4py0KiD6KgqkQ
        15
    e1d4py0KiD6KgqkQ  
       246 天前 via Android
    网页漫画图片翻译的有没有
    m1nm13
        16
    m1nm13  
       246 天前
    @Frankcox 这个好像今天才用过,他的 app 的确支持,问题是 chrome 插件不支持。有点可惜
    m1nm13
        17
    m1nm13  
       246 天前
    @icaolei #13
    的确能自定义接口
    但对于没做过前端的,好像有点难度
    m1nm13
        18
    m1nm13  
       246 天前
    @ErYiii 主要是 google 限制了免费版 一分钟 10 次请求。对于翻译网页来说太低了
    ErYiii
        19
    ErYiii  
       246 天前
    @m1nm13 一分钟六十次
    qhx1018
        20
    qhx1018  
       246 天前
    DeepL
    m1nm13
        21
    m1nm13  
       246 天前
    @ErYiii #19 可能我看错了,但是用 gemini 经常遇到需要 retry
    lovestudykid
        22
    lovestudykid  
       246 天前
    @m1nm13 #10 一般的翻译,用 3.5 的 api 就够了,价格不会太贵
    gitreny
        23
    gitreny  
       246 天前
    为什么不试试沉浸式翻译呢
    sola97
        24
    sola97  
       246 天前
    @m1nm13 ollama 支持 openapi 方式调用了,在沉浸式翻译里只要把 key 设置为 ollama ,自定义模型名称就能跑
    unco020511
        25
    unco020511  
       246 天前
    沉浸式翻译
    stanjia
        26
    stanjia  
       246 天前
    推荐楼主用 [https://sider.ai/] 安好后会在网页有悬浮图标,点 [翻译] 会翻译当前网页。
    如果对你有帮助请给我点 [♥️]
    Chance19
        27
    Chance19  
       246 天前 via Android
    @sola97 具体怎么设置知道么,比如我的 ollama 地址是 192.168.1.11,模型 llama2:7b ,我该怎么设置才能让沉浸翻译工作
    m1nm13
        28
    m1nm13  
       246 天前
    @sola97
    像这样?但是测试都是返回 403. 用 vscode 内的插件测试就正常。浏览器的插件无法访问 localhost?
    m1nm13
        29
    m1nm13  
       246 天前
    @m1nm13 #28 即使我关了 edge://flags/#block-insecure-private-network-requests 也没有效果,依旧 403
    sola97
        30
    sola97  
       246 天前 via Android
    @m1nm13 启动 ollama 的时候,需要配置环境变量 OLLAMA_ORIGINS=*,我是在 systemctl 里加的
    官方文档: https://github.com/ollama/ollama/blob/main/docs/faq.md#how-can-i-allow-additional-web-origins-to-access-ollama
    sola97
        31
    sola97  
       246 天前 via Android
    sola97
        32
    sola97  
       246 天前 via Android
    @sola97
    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    m1nm13
        33
    m1nm13  
       245 天前
    Chance19
        34
    Chance19  
       245 天前 via Android
    我就是直接在环境变量里面加上 ORIGINS 的这个变量解决,但是自建模型翻译质量太低,提示词设定你们怎么搞的
    Chance19
        35
    Chance19  
       245 天前 via Android
    @m1nm13 你用的哪个模型,回复质量如何
    m1nm13
        36
    m1nm13  
       245 天前
    @Chance19 #35 都不行。。作为翻译又慢,效果也差,不过我用 CPU 跑的就是了
    unclemcz
        37
    unclemcz  
       244 天前 via Android
    同求一个 ollama 支持的模型,我在用 qwen ,翻译质量很一般。
    sola97
        38
    sola97  
       243 天前
    @unclemcz 我用 2080ti 22g 跑了一个 sus-chat 的 34b 模型( q3-K-S 版本大概 16G ),在沉浸式翻译中比 qwen 的 14b 要稳定效果好
    我是下载的 guff 然后用 ollama create 自己构建的
    unclemcz
        39
    unclemcz  
       243 天前 via Android
    @sola97 我的电脑内存只有 8g ,只能跑 4b 以下的模型😭
    sola97
        40
    sola97  
       202 天前
    @unclemcz #39 我现在改成白嫖了,算了下送的 token 等效于我拿显卡本地跑半个月 https://platform.lingyiwanwu.com/docs
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2728 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 12:31 · PVG 20:31 · LAX 05:31 · JFK 08:31
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.