如题。 chatgpt 回复的时候那个打字框贼慢贼慢。长回答的时候看得都要急死了。 后台应该数据早就一次性就返回了。 有什么油猴脚本之类得能够加快回答得回复显示得速度吗?
1
zhoufenfens 2022-12-12 17:24:45 +08:00
它应该是保持着一个长连接吧,不是一次性返回然后逐字渲染。
|
2
bluedawn 2022-12-12 17:25:25 +08:00 via iPhone
似乎是这两天才这样的,原因不知道,可以试试 GitHub 大佬做的相关项目
|
3
podel OP 没错。采用得是长 POST 回复信息得。 而不是一次性回复信息。
所以必须保持 长得稳定得连接才行。没办法加快 |
4
lookStupiToForce 2022-12-12 17:26:14 +08:00
应该不是“后台应该数据早就一次性就返回了”
有些回答会中断停留很长时间,有时候甚至会直接回答一半直接挂掉 |
5
mxT52CRuqR6o5 2022-12-12 17:36:24 +08:00
@lookStupiToForce 我也觉得 chatgpt 的一个字一个字蹦出来的设计是受限于模型设计的,OP 认为『后台应该数据早就一次性就返回了』有点太想当然了
|
6
podel OP @mxT52CRuqR6o5 就算不行也应该 先把数据准备好。 然后一次性返回。 长 POST 真的太难稳定了。
|
7
Garalt 2022-12-12 17:55:21 +08:00
用英语比中文快,个人体验
|
8
me221 2022-12-12 19:40:47 +08:00
有没有可能是你国不稳定
|
9
systemcall 2022-12-12 22:22:42 +08:00
VPN 太烂了吧,换个好点的就会快不少
|
11
zhuweiyou 2022-12-13 00:01:03 +08:00
长连接持续返回的,并不是一次返回
|
12
Shosuke 2022-12-13 00:17:12 +08:00 via iPhone
它好像最近的人类道德观念非常强烈
|
13
netabare 2022-12-13 01:22:19 +08:00 1
一个字一个字返回这个应该是最近增加的 throttling ,之前是一段一段话返回的,估计没有任何办法加快。
|
14
rpman 2022-12-13 02:34:25 +08:00 via iPhone
这种序列 decoding 模型 streaming 其实是一种优化
因为完整解码就要这么多时间。他只是把中间结果也展示了。 |
15
needpp 2022-12-13 08:03:00 +08:00
![image]( http://tvax1.sinaimg.cn/large/63211452gy1h91uvhz4k4j21dg0o47wh.jpg)
顺带问一下,我想知道这种分段的数据前端怎么接收的? |
16
summer2019 2022-12-13 08:12:59 +08:00 via iPhone
@needpp event stream
|
17
Tink 2022-12-13 08:25:21 +08:00 via Android
他在组织语言
|
18
Ocean810975 2022-12-13 08:25:51 +08:00 via Android
@ViolaH 话说是不是因为不在美国?你要在美国当我没说
|
19
eggsblue 2022-12-13 08:47:50 +08:00
作为一个人,你也需要组织语言来交流🥹
|
20
neptuno 2022-12-13 08:49:28 +08:00 via iPhone
人也是这样说话呀,问完问题,去做点其他事情,就跟微信聊天一样。
|
21
ZztGqk 2022-12-13 12:13:33 +08:00 via iPhone
用的 decoder ,现在还是无法并行输出的。
|
22
wong2 2022-12-18 14:44:44 +08:00
Server Sent Event 当然最终是原理限制的
|