V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  secondwtq  ›  全部回复第 3 页 / 共 123 页
回复总数  2459
1  2  3  4  5  6  7  8  9  10 ... 123  
193 天前
回复了 rabbbit 创建的主题 3D [Threejs]关于图形学 UV 映射的问题,求个思路
没太看明白,猜你给的这个图是一个有 UV Distortion 的模型的顶视图,然后两个梯形是一个四棱柱中的两个面?

这个你可以把两个面单独拿出来,然后在法线方向投影
我觉得这根本就不是一个二选一或者 N 选一的问题。

我不知道楼主所谓的“底层”究竟是指什么,先权当从语言抽象的角度来讲好了。学习底层的东西,你至少需要能够看懂相关的实现,涉及到什么项目,就得去看相关的语言。
对于有些项目来说,语言扩展甚至不比语言本身作用要小。

现在的阶段,底层的绝对主力还是 C/C++,你的 JS 和 C#,主流实现穿透到下面都是 C/C++,Java 一样。你要是去看 Linux Kernel ,Postgres ,SQLite ,PyTorch ,Mesa 之类的也是,所以你可以不拿他们当主力,但是早晚要学点。
我不知道楼主了不了解指针这个概念,但是往底层实现走,少不了 C FFI ( v2ex.com/t/604915#r_7962546 ),FFI 这套搞明白了,看过一些典型的 FFI 接口,C 其实已经差不多学会三分之一了。这条路我觉得比一般的教科书要强。

现在已经有一些项目开始用 Rust 作为主力(虽然我脑袋里面除了 TiKV 和 Zed 之外一时半会没想出来有啥),但是一是这样的项目以后会越来越多,二是正是因为 Rust 很多项目不完善,用得人少,屎山堆得少,反而更加简洁适合初学者。语言丁真,鉴定为早晚也得学。

另外你以为学一个通用语言就得了?事实上每个项目都有自己的 DSL ,而且一般还不只一个,比如 SQLite 里面有个 VM ,这里有文档:www.sqlite.org/opcode.html 每个 SQL 语句都会被编译成这样一段 VM 程序(噢对了,SQLite 本身的 SQL 方言也算一个),然后这玩意的测试是 Tcl 写的。

不要对底层有神秘感,换个语言糊屎,不代表就不在糊屎了。
所以语言不妨先随便看看,然后看起相关的项目。至于实际使用嘛,JS 难说,不过 C# 在与底层交互方面做得其实算比较完善的,所以很多情况下不用换语言就可以。折腾一段时间之后了解了不同的语言,再根据个人口味选择更好。
201 天前
回复了 MoeMoesakura 创建的主题 Linux 怪异的 KDE Xorg 下高 cpu 占用
perf record 一下
Python multiprocessing 迫真猴版 MPI
203 天前
回复了 kevinocean512 创建的主题 教育 为什么今年的高考存在感那么低?
没觉得低,群里一堆玩梗的

https://gist.github.com/secondwtq/6f4cf35c39794b4682752bc377154377

科比图上传麻烦就不发了
@FollowHYH 就是一个 random 的人做的一个 random 的框架啊,这就是人们在网上 randomly 地刷到一个项目时的感受
要想有人用,你得突出核心设计目的和思路,独有的特点,哪怕买一堆 star 呢。
一个 random 的框架,没人用才正常,能做到“不温不火”和很火的都是 outlier 。
你首先得给我一个用它的理由,相比于 React ,它有哪些优势呢?
台式机把温度墙和风扇曲线调一下,噪音问题基本可以忽略。
主要是要做好性能比官方宣传和网上评测性能差的心理准备。

至于颜色的问题,你买两块不一样的显示器颜色也不一样。而且果子的屏幕我记得也有冷暖屏的事情。
205 天前
回复了 wencan 创建的主题 职场话题 扯下 IT 公司招聘 AI 工程师
www.ithome.com/0/769/622.htm 酷冷至尊发布 AI 竞彩导热膏:导热系数 12.6W / mK ,蓝 / 红 / 绿 / 黄 / 黑 / 白色可选 - IT 之家
www.ithome.com/0/770/585.htm 酷冷至尊回应“AI 竞彩导热膏”名称歧义:持续产品创新,帮用户发挥最佳机器性能 - IT 之家
205 天前
回复了 ideadisc 创建的主题 职场话题 外企的 offer 发了,现在纠结要不要接
现在去外企,尤其是美企必须考虑的风险是温水煮青蛙式的脱钩

不知道是不是楼主在深圳感受不强,反正上海这边隔三差五的就有外企走人的消息,没走的也很少再扩张了。
Copilot 不知道,但是 Codeium 有类似的东西:
codeium.com/blog/context-aware-everything-more-advanced-realtime-context-than-github-copilot Context Aware Everything: More Advanced Realtime Context than GitHub Copilot
codeium.com/blog/codeium-context-pinning-launch Context Pinning
codeium.com/blog/personalization-context-awareness-vs-customer-specific-finetuning Personalization: Context Awareness vs Customer-Specific Finetuning
codeium.com/blog/user-personalization-for-llms User Personalization, the Next Frontier in LLMs

感觉主要还是 RAG 变体,结合代码库中的一些固定结构
222 天前
回复了 xloger 创建的主题 分享创造 电脑装机基础知识与 2024 年 618 速成攻略
看到备战黑神话悟空就想起几年前的备战 2077 ... 不过那一波还好,显卡买到手不亏
222 天前
回复了 dejavuwind 创建的主题 宽带症候群 家庭千兆升级 2.5G/10G 讨论
我觉得上个帖子 #25 说得很有道理,楼主先把光纤埋好,这玩意便宜。

然后要 10G 的话,主工作站和 NAS 先连一下(还得是固态 NAS 才有意义,或者也可以试试超大内存做 HDD 缓存 ...),一对网卡就行,主网络可以暂时保持 2.5G
因为实际上能用到 10G 带宽的设备并不多,WiFi 设备全都用不上,电视也用不上,预算受限就放在最重要的地方
不过我觉得楼主主要是折腾需求,虽然把我觉得上面这一堆折腾完就挺折腾的了 ...
222 天前
回复了 yunv2 创建的主题 程序员 关于 cpu 性能和 Java 编译速度的问题
@yunv2
#6 这个可以挖一挖:给两边准备同样的虚拟机 Linux 镜像与相同版本的虚拟机软件跑编译,结果是怎样的,依然是 7840H 比 5700G 慢么?
222 天前
回复了 Tuatara 创建的主题 Local LLM 现在买 3090TI 玩 AI 靠谱吗
SD 和 LLM 这两个需求其实是不一样的
LLM 看个人需求,跑得快当然好,有的场景慢一点也无所谓
但是 SD 实际使用中需要迭代调参才能试出相对满意的结果,这种情况下能快速推理生成预览是非常有用的
就像过去 3D 建模调材质,CPU 渲染很慢影响效率,但是后来 CPU 核数上来了,又可以用 GPU 硬件加速光追,效率指数级上升
231 天前
回复了 z0z 创建的主题 新手求助 现在学 Swift 开发前途光明吗?
美国有可能会禁掉中国的 swift ,自己看着办吧
240 天前
回复了 waiaan 创建的主题 JavaScript 这段 if...else 有优雅的写法吗?
我怎么感觉如果这是 C/C++ 的代码的话,主楼原本的写法就挺好的 ...
Code Interpreter 不知道,但是 Function Calling 的能力的话,一般认为 OpenAI 是对其模型进行了专门训练才能达到如此的效果。开源模型如果没经过类似的训练的话只能在 Prompt 上做手脚,结合限制输出 token 的手段。目前 Llama 系列官方模型都没有 FunctionCalling 的训练。
github.com/MeetKai/functionary MeetKai/functionary: Chat language model that can use tools and interpret the results 这里倒是有个原生支持 Function Calling 的
1  2  3  4  5  6  7  8  9  10 ... 123  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4734 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 69ms · UTC 09:48 · PVG 17:48 · LAX 01:48 · JFK 04:48
Developed with CodeLauncher
♥ Do have faith in what you're doing.