V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lookStupiToForce  ›  全部回复第 7 页 / 共 56 页
回复总数  1108
1 ... 3  4  5  6  7  8  9  10  11  12 ... 56  
(这样子下去我怕不是一打开炼丹库都要准备一箱营养快线
2023-03-08 17:35:35 +08:00
回复了 lyc8503 创建的主题 程序员 整理了一下 ChatGPT 开发相关的仓库
支持一下
2023-03-08 15:07:26 +08:00
回复了 Contextualist 创建的主题 OpenAI 原创研究:猫娘 GPT 与注意力机制
话说其实钞票足够的话可以自己 finetuning 一个属于你自己的猫娘出来🤪🤩🤤应该也不需要花很多时间
就是不知道 openai 政策允不允许
2023-03-08 14:39:19 +08:00
回复了 Contextualist 创建的主题 OpenAI 原创研究:猫娘 GPT 与注意力机制
好家伙,好感度系统都研究出来了🤣🤣🤣
2023-03-03 10:28:36 +08:00
回复了 raysonlu 创建的主题 程序员 关于远程开发同步的疑惑
所以我选择远程到 windows 上的 IDE🤣
2023-03-02 16:50:32 +08:00
回复了 justin2018 创建的主题 OpenAI ChatGPT 3.5API 发布了
梯子一个一个都被 openai 给毙了,所以国内调用这个接口的长期可用产品呢?
GKDGKD
2023-03-02 15:39:26 +08:00
回复了 tl228 创建的主题 问与答 突发感触:人类文明已然黄昏。
另外非要把实现人类的“智能”才算“智能”,或者认为人类的“智能”是种生物特例,实在是个“人类中心论”的傲慢表现
我倒挺喜欢银河系漫游指南里的说法,“地球上第一聪明的是老鼠,第二是海豚,第三才是人类”🤣

现人类只不过先一步有了记录文明的工具,能承袭前人海量的知识与资讯,加上长期由自然演化(荒野求生物竞天择)+社会演化(反社会个体、不遵守社会规训的个体难以产生后代)预训练的、由多种功能分区组合而成的大规模生物神经网络,才能有如今的“智能”(这里不欢迎唯灵主义, [极端唯心主义的傻瓜 - 400🐶] )

真要论模拟出“智能”,机器的神经网络其实只要能完美模拟这最后一个“生物神经网络”的基础功能就行,然后就是逐步实现加大规模并让功能分化,然后加上规训和淘汰规则。

另外人类文明的黄昏也可以是智械黎明啊🤣机飞为什么不能是一种出路
或者全人类变成机朴的手办,在由机朴运维的伊甸园里被饲养,无忧无虑地裸奔🤣
2023-03-02 15:08:13 +08:00
回复了 tl228 创建的主题 问与答 突发感触:人类文明已然黄昏。
楼上有一堆门外汉在提理论,还让 op 去补理论知识
但怕不是他们懂的理论都还停留在科普层次

来来来,我虽然也停留在科普层次,但挺喜欢看各种“证明”的,可以给你们这些井底蛙多带来一些额外的理论知识
-
-
-
-
-
已证明:"神经网络可以在一个紧致集( compact set )上逼近任意连续函数。"
"""
作者:若羽
链接: https://www[.]zhihu[.]com/question/408690594/answer/1443267762
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

关于神经网络的争论。

Pros:1989 年无限逼近理论证明了,神经网络可以在一个紧致集( compact set )上逼近任意连续函数。近些年,谷歌的科学家证明了,当神经网络变得无限宽时,通过高斯过程描述该集成,它的均值和方差在整个训练过程中便能被计算出来。北大的王立威教授对 NTK 的研究认为,网络足够宽的情况下,神经网络的非凸优化变成了类似核模型的凸优化。然后,Richard Sutton 说,任何依赖先验专家知识的智能实践必然失败,以硬件支撑算力的暴力美学才是出路。

Cons:一大批生物认知智能的科学家和包括朱松纯在内的计算机科学家都认为传统算法(包括神经网络算法)的视觉实践遇到了“性能墙”,必须先把生物智能作为一个阶段性的求解目标。贝叶斯网络的发明者 Judeal Pearl 也认为大规模的经验主义模型只是挖掘数据的相关性,而非探究因果性。最早研究神经网络的那些人如 Hinton 、LeCun 等,希望找到不依赖反向传播的算法,也就是说 Hinton 已经多少动摇了年轻时候的观点,即认为隐层中间的梯度传导可以模仿大脑的神经元机制。

深度学习社区今天一直在强调 System2.0 ,换言之,他们也在思考出路。如果智能是指高效计算以及靠存储模型记忆结构化的人类知识数据,目前的人工智能已经做得足够好了,这种成就的获得依赖于神经网络及其带动的 GPU 、TPU 技术发展;但如果智能指的是归纳推理、哺乳动物的感官技能、形成人类社会意识形态衍生出来的道德伦理与价值取向,那是真的强行难为之事。

编辑于 2020-08-30 15:40
"""

换句话说,如果你认为人脑产生的智能可以理论等效成一个一个的 f(x1, x2, x3...)连续函数黑盒,那么放上足够多模拟神经元的神经网络也可以做到。
-
-
-
-
-
强假设:"泛化能力是在指令数量超过一定程度之后自动出现"
"""
复杂推理能力的来源和泛化到新任务的能力

我们关注 code-davinci-002 和 text-davinci-002 ,这两兄弟是第一版的 GPT3.5 模型,一个用于代码,另一个用于文本。它们表现出了三种重要能力与初代 GPT-3 不同的能力:
......
泛化到没有见过的任务:当用于调整模型的指令数量超过一定的规模时,模型就可以自动在从没见过的新指令上也能生成有效的回答。 这种能力对于上线部署至关重要,因为用户总会提新的问题,模型得答得出来才行。
......
利用思维链 (chain-of-thought) 进行复杂推理: 初代 GPT3 的模型思维链推理的能力很弱甚至没有。code-davinci-002 和 text-davinci-002 是两个拥有足够强的思维链推理能力的模型。

......
对没有见过的指令做出反馈的泛化能力是在指令数量超过一定程度之后自动出现的,T0 ( Sanh. et. al. Oct 2021. Multitask Prompted Training Enables Zero-Shot Task Generalization )、Flan ( Wei et. al. Sep 2021. Finetuned Language Models Are Zero-Shot Learners ) 和 FlanPaLM ( Chung et. al. Oct 2022. Scaling Instruction-Finetuned Language Models )论文进一步证明了这一点。
......

......

这篇文章中的这些说法更像是假设 (hypothesis) 还是结论 (conclusion)?

( 1 )复杂推理的能力来自于代码训练是我们倾向于相信的假设
( 2 )对没有见过的任务泛化能力来自大规模指令学习是至少 4 篇论文的结论
( 3 ) GPT-3.5 来自于其他大型基础模型,而不是 1750 亿参数的 GPT-3 是有根据的猜测。
( 4 )所有这些能力都已经存在了,通过 instruction tuning ,无论是有监督学习或强化学习的方式来解锁而不是注入这些能力是一个强有力的假设,强到你不敢不信。主要是因为 instruction tuning 数据量比预训练数据量少了几个数量级
( 5 )结论 = 许多证据支持这些说法的正确性;假设 = 有正面证据但不够有力;有根据的猜测 = 没有确凿的证据,但某些因素会指向这个方向

作者:OneFlow 一流科技
链接: https://juejin[.]cn/post/7181405978447839269
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
"""
2023-02-24 11:57:40 +08:00
回复了 timeance 创建的主题 分享发现 成年人的想象力是不是已经死掉了
这是被现实的引力拉扯太久了

你要是脱产一年,每天都在“大人的事儿”爽完后,放空脑袋去看小孩子看的各种幼儿节目(请不要抱着批判的态度看),你会发现你的脑袋奇奇怪怪的想法又多了起来

说到底,胡思乱想的时间太少,能让你感到新奇的输入太少,你的大脑会自动进入节能模式

大刘高产那会儿,也是他上班摸鱼的悠闲时间
"""
“特别是像电力系统这种工作,必须按时去上班,必须坚守岗位。在坚守岗位的时候,就可以在那里写作了,相当大一部分写作时间都是在这个岗位上写的。”刘慈欣直言,“因为在岗位上写作,有一种占便宜的感觉”
"""
2023-02-23 20:24:44 +08:00
回复了 Wanyne 创建的主题 分享创造 NotionAI-Chrome,让你在任何网页上使用 NotionAI
可以可以
这下配合 notion 真成私人助理了
如果能从浏览器输出到任意桌面程序(估计微软就在干这活儿),notion 可以成为个人信息中心了。
我觉着你们一个一个想靠此牟利的真实好了伤疤忘了疼
想从老虎嘴里抢肉,想桃子

www[.]zhihu[.]com/question/19644551?rf=20345694
daily[.]zhihu[.]com/story/4479492
另外,多扯一下这个“有啥用?怎么怎么样?”的问题——

[实用主义] 实在只适合解决工程 /生存问题,而且更偏向那种资源不足必须当机立断做取舍时的工程 /生存问题。
而在其他几乎所有(资源宽裕的)领域, [实用主义] 都是个只追求 [局部稳定解] (甚至都不是优解),断送自己未来的短视策略(有点类似于只在舒适区里做开拓)。

让我这么情绪化连回复“有啥用”两次的原因,是近期看到的这个知乎问题
[如何看待新华社每日电讯:别忽视游戏行业的科技价值?这是否代表着游戏行业将会回暖?]
www[.]zhihu[.]com/question/584997391

再看看这些回答
"""
当初怎么居高临下评价洋务运动来着?
这不还是中学为体,西学为用那一套吗,眼馋游戏外溢产生的价值,但是骨子里鄙视娱乐,和当初眼馋坚船利炮有什么区别吗?
www[.]zhihu[.]com/question/584997391/answer/2904633924
"""

"""
当年欧几里得讲几何学,有学生发问道,这学问能带来什么好处?欧几里得叫奴隶给他一块钱,还讽刺他道:这位先生要从学问里找好处啊!又过了很多年,法拉第发现了电磁感应,演示给别人看,有位贵妇人说:这有什么用?法拉第反问道:刚生出来的小孩子有什么用?按中国人的标准,这个学生和贵妇有理,欧几里得和法拉第没有理:学以致用嘛,没有用处的学问哪能叫做学问。西方的智者却站在老师一边,赞美欧几里得和法拉第,鄙薄学生和贵妇。时至今日,我们已经看出,很直露地寻求好处,恐怕不是上策。这样既不能发现欧氏几何,也不能发现电磁感应,最后还要吃很大的亏。怎样在科学面前掩饰我们要好处的暧昧心情,成了一个难题。——王小波

作者:依然范德彪
链接:www[.]zhihu[.]com/question/584997391/answer/2904713499
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
"""

"""
在别人做游戏的时候你瞧不起游戏,今天看见别人因为做游戏进步了你才意识到游戏可以导致进步,你还是看不起游戏的。
而你看不起游戏也不是核心,核心是你看不起人,你不承认能让人快乐的东西是好东西,你只认为能让人干活的东西才是好东西。还在讨论游戏的科技价值就说明依然没有建立以人为本的价值,游戏的核心就是满足人的娱乐需求,推动科技进步才是副产物,你看不到人的价值又怎么可能了解什么技术才是好技术呢?可不你就只能被卡脖子了么。

作者:匿名用户
链接: https://www.zhihu.com/question/584997391/answer/2905423580
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
"""

见识粗鄙的肉食者用“有没有用”给社会发展定了调子,然后生杀予夺
许多见识粗鄙的草食者同样用“有没有用”给自己的下属、自己的孩子、自己的亲朋好友定调子,然后冷嘲热讽,但也生怕对方抓住一次机遇飞黄腾达

总而言之,活而有余裕时,请保护你的好奇心 /探索欲 /求知欲
主问题--"你说的道理我都懂":

他们不懂
只要他们碰到 [可以应用你说的“道理”的具体情境] ,却 [想不起来运用] 你说的那个“道理”,那就是不懂
不要把“了解”一个事物的存在,当作“理解”一个事物的存在

正文问题--"有啥用。 你看了,你不也没怎么怎么样?"
判断对当前生活工作有用与否实在是一个 [极其短视] 的想法,都不值一哂。
用句俗话说,叫“机会从来都是留给有准备的人”。而“理解”相比“了解”,肯定有更多的应对策略
2023-02-23 17:14:27 +08:00
回复了 huiyanpohundh123 创建的主题 问与答 考公考编浪潮本身是服从性测试吗?
考编考公还有考研本身包含服从性测试。
但“浪潮”不是

这个问题问得其实挺别扭的,主谓宾突出一种不搭但强行凑一块儿的神经质:
“下海浪潮是开放性测试吗?”
“躺平浪潮是认命测试吗?”
“AI 浪潮是资本放弃人工测试吗?”

“XX 浪潮是 XX 测试吗?”
1 ... 3  4  5  6  7  8  9  10  11  12 ... 56  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   990 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 40ms · UTC 21:40 · PVG 05:40 · LAX 14:40 · JFK 17:40
Developed with CodeLauncher
♥ Do have faith in what you're doing.