V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
PbCopy111
V2EX  ›  问与答

Inter uhd 显卡,不等同于 NVIDIA GPU 吧

  •  
  •   PbCopy111 · 2020-05-07 00:03:22 +08:00 · 2447 次点击
    这是一个创建于 1669 天前的主题,其中的信息可能已经有所发展或是发生改变。

    https://github.com/dreamnettech/dreamtime

    这个项目,有一个 option 选项,看起来 NV 的 GPU 比较厉害,我也不知道用 Inter 的集成显卡能不能处理,是费时间,还是效果不好呢。。。

    看这里没有讨论的,我也不知道 github 的项目能不能讨论,还是没人知道这个机器学习的东东呢。

    8 条回复    2020-05-08 23:43:26 +08:00
    LZSZ
        1
    LZSZ  
       2020-05-07 00:04:47 +08:00
    - -! 大哥这还用问吗?
    SakuraSauce
        2
    SakuraSauce  
       2020-05-07 00:26:25 +08:00 via Android
    inter=intel 喵?
    NVIDIA 显卡肯定比核显厉害喵!
    nvkou
        3
    nvkou  
       2020-05-07 00:35:17 +08:00 via Android
    Intel 不是 inter
    是不同的
    nv 的是战术核显卡
    Intel 的是核显
    都能加速单指令多数据的计算场景,但当量不一样啊
    小马拉大车是不行的
    这里不讨论是因为在这是常识
    honjow
        4
    honjow  
       2020-05-07 00:38:57 +08:00 via iPhone
    核显和独显。常识啊
    minami
        5
    minami  
       2020-05-07 00:39:58 +08:00
    nVidia 的 CUDA 是深度学习的事实标准,除了谷歌有自己的 TPU,大部分研究人员都是用 N 卡进行训练的,所以无可取代,毕竟 CUDA 是私有标准
    当然 AMD 搞了个骚操作,ROCm 平台可以白嫖 CUDA 的成果,比如你可以在 ROCm 上跑 PyTorch 这样本来是默认 CUDA 后端的深度学习库
    Intel 这边,由于显卡比较弱势,主要靠 FPGA 发力。不过也搞了个奇怪的后端 PlaidML,使用 keras 接口,可以在 I/A/N 三家显卡上进行训练
    以上这些都是关于深度学习训练的,如果只是推理,倒是可以利用各种推理库,将模型落地到设备上,比如腾讯的 ncnn,可以跑在任意支持 Vulkan 的显卡上,当然 CPU 也可以
    minami
        6
    minami  
       2020-05-07 00:49:43 +08:00
    草草看了下,原模型是基于 PyTorch 的,那训练就基本告别 I 卡了,如果有模型结构的话,可以尝试导出到支持 I 卡的推理引擎上
    ohao
        7
    ohao  
       2020-05-07 08:15:47 +08:00
    看价格也知道,一块普通的 1080 N 卡 2K+

    如果学习的话,可以租 GPU 的服务器,1080T 的 大概 900 人民币一个月
    PbCopy111
        8
    PbCopy111  
    OP
       2020-05-08 23:43:26 +08:00
    其实。。。。。我就是来说说这个项目的事的。。。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1000 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:59 · PVG 03:59 · LAX 11:59 · JFK 14:59
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.