V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  houshuu  ›  全部回复第 8 页 / 共 16 页
回复总数  313
1  2  3  4  5  6  7  8  9  10 ... 16  
359 天前
回复了 summerlv 创建的主题 程序员 想问问遗传算法相关的问题
4 年没碰了,但是我记得遗传算法选择,交叉,变异倒是几乎都差不多,重中之重是要构建合理的适应度函数。
下面这个知乎可能有帮助。
https://www.zhihu.com/question/40102661

你这个问题里,没有写清楚题目是否本身有其难度系数如果有的话那确实是典型可以用来优化的问题。
我自己做适应度函数的话,应该会设定为对于目标难度系数值的差值和分散惩罚项
2023-04-27 09:40:07 +08:00
回复了 likunyan 创建的主题 问与答 阿里云劫持我的文件不给我!有什么好的 NAS 方案。
@likunyan 1T 其实也是大部分听过的,如果自己收集音乐的话,Hires 不压缩一首大小在 250M 左右,而且下载时基本以专辑为单位。
2023-04-26 12:13:54 +08:00
回复了 likunyan 创建的主题 问与答 阿里云劫持我的文件不给我!有什么好的 NAS 方案。
别说国内了,国外一样扫描的,就算一个纯私人号 0 分享也被谷歌网盘封号过。
数据还是存自己手上好,不过要注意硬盘寿命,去年损失了 1T 的音乐,肉疼。
2023-04-25 22:39:51 +08:00
回复了 kongkongye 创建的主题 问与答 怎么看待开源软件对商业软件造成的影响?
如果觉得某个设计很有特色,那就花钱申请并维护专利,自己都觉得没有价值的东西被复现了也没什么太大问题。或者说专利钱都赚不回来的那也没什么独占的意思了。

大部分好的商业软件就是做优化,就算是被像素级复刻,内部的处理做的不好用,还是得掏钱买原版。
2023-04-24 12:10:01 +08:00
回复了 oColtono 创建的主题 程序员 一个老套的问题:大龄社畜转码。
不搞算法的话,现在写业务和数学基本上是没关系的,纯纯搬砖。
大部分业务靠的不是对某个技术的原理理解,而是对于流行框架的既有特性掌握度和熟练度。

计算机相关的学习资源应该是互联网上最丰富的,先自学下看看自己能不能接受,毕竟工作以后还是要不断自学新的,几年更新一遍技术栈也是常事了,也算快速试错。
2023-04-22 14:17:55 +08:00
回复了 qiaofanxing 创建的主题 程序员 双拼真是我学的最赚的技巧
练习了一下,记住按键是挺快的,但是我突然我发现我自己的拼音学的好差,前后鼻音分不清楚根本提不了速,一直靠的输入法给我纠正。
2023-04-21 09:02:41 +08:00
回复了 justincnn 创建的主题 VPS 所有的 vps 在 openai 下全部阵亡,
绑的常规国外信用卡,Linode 一直用的很稳
2023-04-20 13:13:44 +08:00
回复了 IndieCreator 创建的主题 问与答 关于 JWT 的问题
之前做后端 jwt 验证的时候是指定公司内部的一个 api 定期获取所有 kid 的公钥,然后读 jwt 内的 kid 去找公钥验证。
2023-04-20 09:53:17 +08:00
回复了 iorilu 创建的主题 程序员 现在还有多少开发觉得一定要用 mac 的
GPU 加速正常不会在本机上跑,远程开发系统反倒是不重要了。
macOS 主要是不折腾,大部分技术的 Quick Start 里 macOS 的配置都是较为简洁的,能节省时间就够了。
wsl2 也不是没用过,但是还是有各种各样的内核问题最后放弃了,
用了一年多 M1 ,遇到的障碍其实也就 Java Docker 编译,其他没啥感觉。

对于一台能用几年的生产力工具,再溢价也就几千,省时间比较关键。
2023-04-19 11:13:16 +08:00
回复了 dcsuibian 创建的主题 程序员 安利下 fnm(Fast Node Manager)
可以试试 volta
2023-04-16 01:42:47 +08:00
回复了 jyjmrlk 创建的主题 日本 分享一下在日本一个月水、电、燃气的账单
电费好低,我 222 kwh 扣了 9000+
2023-04-13 13:47:27 +08:00
回复了 cloud369 创建的主题 推广 免费送 50 万中文字符的 GPT-3.5 支持 GPT-4
@zdt3476 模型越大执行越慢
2023-04-10 21:39:07 +08:00
回复了 yueji 创建的主题 问与答 关于 AI 模型训练,喂数据的疑问
在模型不公开的情况下是无法喂数据的,官方提供 fine-tuning 服务但那是限定几个模型
现在玩的再花终究是前端上的 prompt engineering
2023-04-08 10:40:56 +08:00
回复了 WorldWideWeb 创建的主题 OpenAI chatgpt token 计算方式
应该不同的,我记得官方给的是 GPT2 的 Fast Tokenize 实现
2023-04-07 10:44:38 +08:00
回复了 hentailolicon 创建的主题 Go 编程语言 Golang 怎么 Cancel 一个非循环子协程
和 7 楼一样, 我以前最类似功能时候也是发现无法在超时情况下直接终结指定 goroutine ,只能分割逻辑到多个 goroutine ,检查上下文是否被 Cancel ,尽量去降低超时后执行的成本。但这样带来的是 goroutine 的一点额外开销,所以如果处理速度很快的任务我觉得不需要这么搞。
不知道有没有 cgo 相关的手段能改善这个问题。
2023-04-07 10:16:55 +08:00
回复了 Toby2021 创建的主题 程序员 井底之蛙问问,国内有 AI 方面的储备人才吗
如果只是接触过相关技术, 那这两年所有的自然语言处理和视觉相关的研究方向毕业的研究生都能在这类工作里搬砖.
但大型模型最缺的知识其实是如何稳定训练模型和快速决策调优方向, 这块目前没钱还真没法练手, 有这技术的大部分公司也是藏着掖着不会分享的.
2023-04-04 16:27:44 +08:00
回复了 betatabe 创建的主题 问与答 购买力差距也太大了点吧
只能说你的这些应届朋友太强了
2023-04-04 15:49:22 +08:00
回复了 liansishen 创建的主题 问与答 日本流量卡有什么推荐的吗
没必要, 除非天天都在东京核心区域, 5G 不比 4G 快多少, 运营商宣传的地图要看那个颜色最深的部分.
OpenAI API 其实有 Fine-tuning 服务, 只是目前不对 GPT 模型开放罢了.

本来想过针对 Token 试试, 但感觉新的几个 GPT 模型和他提供的 API 也不是一致的, 官网提供的 Token 工具貌似是基于 GPT2 做的. 所以个人感觉 OpenAI 不公布模型原参数的情况下, few-shot 目前阶段是完全做不了的, 要么自研要么等. 提示词的影响终究只有那几千个 Token, GPT4 还没用过, 好像可以多点.

其实也有一年没怎么碰机器学习了, 最近又开始看相关论文学习学习. 数据收集和数据质量是一方面, 目前 OpenAI 和大部队拉开差距的主要是他们能够用很小规模的模型去预测大规模模型训练收敛的情况, 大部分 AI 民工就算能找到数据, 能写出模型, 拉得到算力投资, 可 Loss 估计一训练就飞出太阳系了. 稳定训练是个技术活, 之前不是搞大模型方向的估计够呛.
2023-03-29 23:43:14 +08:00
回复了 RRyo 创建的主题 程序员 copilot 简直大脑按摩
做了一年的 Copilot 代码审核员, 以下是一些心得

1. Copilot 要用得好, 要把函数拆的很散, 不要给一个函数过多的逻辑.
2. 函数的参数和参数名都是很大的影响, 不要省单词基本上能出的很快.
3. 对于复杂的数据结构, 直接搞一个 sample 数据, 注释好放在文件头部, 在后续函数内部逻辑生成时能自动参阅准确度大大提升.
4. 可以尝试写点伪代码或者 Python 注释掉, 让 Copliot 给你直接生成 C++. (做项目整体移植的时候速度直接起飞!)
5. 尝试给一点简单例子. 比如 -- xxx.yaml -> xxx 他就知道要去掉尾部的拓展名了.

其实这就是一种 prompt engineering 了, 其实还是得去理解如何让模型更加容易感知到你的上下文和核心需求.
不能说全场景都能很智能, 但是如果一直出不了你自己想要的答案那肯定提升空间还是很大的.
1  2  3  4  5  6  7  8  9  10 ... 16  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   882 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 20:31 · PVG 04:31 · LAX 13:31 · JFK 16:31
Developed with CodeLauncher
♥ Do have faith in what you're doing.