laminux29

laminux29

V2EX 第 381760 号会员,加入于 2019-02-02 06:21:55 +08:00
laminux29 最近回复了
13 小时 3 分钟前
回复了 Jony4Fun 创建的主题 信息安全 第一次遇到这么 bt 的问题,原来是 React 的漏洞
wocaosinm.sh

噗。。。。
必然是 C# 了。

C# 语言,从底层汇编式的精准控制,到 js 样式的高度优化的高级别语法糖与 Lambda 表达式,从 C++ 的强类型到 Python 的弱类型,都擅长,是当今最好的编程语言。可惜一手好牌被微软打地稀烂。
20 小时 47 分钟前
回复了 v00O 创建的主题 程序员 国外服务器有没有推荐的
搬瓦工的洛杉矶 CN2 VPS + 1

稳定、线路速度快、周五晚高峰都不丢包。
1 天前
回复了 mk3s 创建的主题 电动汽车 特斯拉不愧是 [驾驶者] 之车
BMW 的 SUV 就很反直觉,后排很宽敞,而且用经济档开车,非常稳。
鸡叉骨的成本核算真是笑死人,你知道从鸡叉骨到你能稳定赚到钱,中间还缺少多少种成本吗?

我也建议你,先去抖音看看勇哥视频 +1 ,不然你这种算法会把自己赔个底朝天。勇哥视频里还有人花了 100W+搞了一栋奶茶大楼的。
2 天前
回复了 jianglibo 创建的主题 C++ 为什么写 C++的人年龄偏大?
C++是艺术,但艺术不适合拿来赚钱。
1.受限于显存,目前几千页的纯文字文档,无法做 AI 精准分析。地球上最强的闭源 AI 都做不到。几百页的纯文字文档,用关键字提取的方式,才有一定的 AI 分析可能,但精准度也无法做到 100%,需要自建图形数据库 + ES 集群来辅助。精准度的意思是,文字一旦数量过多,AI 容易忘记细节,容易产生幻觉。等以后显存能以指数级增长后,这个问题才能被逐步解决。

2.大部分开源模型的能力都很强,但现在不是模型的问题,而是显存的问题。

3.达到豆包 70% 功能,你至少需要 1 台非量化的 AI 一体机。纯文字版的价格在 120W 以上,图形视觉版本价格再翻 3 倍,之所以这么贵,是因为需要考虑同时使用人数,以及每个 chat 的文字生成速度。这是几大运营商的 AI 研究中心提供的报价,很多体制内的单位已经用上了。

4.AMD HX395 、5090 ,这些硬件只是玩具,达不到你要的效果。

5.5 万元预算更是搞笑,5 万元预算你给小公司买豆包 API 都有可能不够用,更别提私有化部署。
自由与管束都有自己的优缺点,一刀切不可取,各取所需才是王道。
我国在义务教育阶段,严重缺失对于理财投资、婚恋、医疗方面的基础教育,造就了一大批不懂积蓄意义的人。一旦家庭发生点事情或谁得个大病,没积蓄整个家庭一夜之间直接返贫。

这也是为什么很多国家都要搞强制医保的原因。
楼主说的并不是显卡直通,也不是固定比例的显卡拆分,而是动态显卡共享。此时 VMware 相当于一款游戏,动态使用了宿主机上的显卡的一部分。
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2703 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 06:13 · PVG 14:13 · LAX 22:13 · JFK 01:13
♥ Do have faith in what you're doing.