V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
gtese
V2EX  ›  Local LLM

离线大模型有支持文档翻译的吗

  •  
  •   gtese · 269 天前 · 1132 次点击
    这是一个创建于 269 天前的主题,其中的信息可能已经有所发展或是发生改变。

    上边非要整个文档翻译 word ppt excel.没错,还不想出大钱。

    9 条回复    2024-04-03 13:36:46 +08:00
    MapleEve
        1
    MapleEve  
       269 天前
    有,但是很烂,不如 Haiku
    yinmin
        2
    yinmin  
       269 天前 via iPhone
    有 2 个国产开源大模型还不错:Yi-34B 和 qwen1.5-72B
    gtese
        3
    gtese  
    OP
       269 天前
    openwebui+ollama 可以拉到 qwen ,但是文档不行。
    iX8NEGGn
        4
    iX8NEGGn  
       269 天前 via iPhone
    直接翻译文档的没有,得自己解析格式,不过除了 PDF 不好解析,其他格式还是有挺多成熟的库的,然后本地模型的话,千问用来翻译还是不错的,已经到了可接受水平。
    MapleEve
        5
    MapleEve  
       269 天前
    @yinmin 你这个 34B 和 7B 本地部署……成本就 6 位数了
    gtese
        6
    gtese  
    OP
       268 天前
    @MapleEve /233 笑死,6 位数,老板能蹦起来把我活埋了。
    MapleEve
        7
    MapleEve  
       268 天前
    @gtese #6 基本没戏,自己买 wps 的 AI 服务吧
    dongruixuan
        8
    dongruixuan  
       268 天前
    34b 8bit 量化理论两个 4090 也能跑吧
    MapleEve
        9
    MapleEve  
       268 天前
    @dongruixuan 能跑,很慢,楼主这种说不想出大钱的基本只有用第三方中转 API 的份。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5523 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 28ms · UTC 06:43 · PVG 14:43 · LAX 22:43 · JFK 01:43
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.