尝试用 pickle.loads 读到内存,直接内存溢出了,试着用 pandas.read_json()读取,但是报错,Excepted object or value 黔驴技穷,不知道该咋弄了
1
opengps 2018-06-05 11:45:46 +08:00
要不你试试用工具把内存映射成硬盘,然后当作硬盘读写?
不过貌似没有长期免费的内存映射硬盘工具 |
2
purebluesong 2018-06-05 12:17:48 +08:00
怎么写的怎么读吧,python 的 loads 会在内存中占用成 10 倍磁盘空间的大小。
不过如果 Expected object or value 的话应该这个文件本身就有问题了,说不定因为文件大小限制而被截断了 |
3
Luckyray 2018-06-05 12:18:41 +08:00 via iPhone
这么大还用 json 不太合适吧……
|
4
likuku 2018-06-05 12:20:27 +08:00
某些数据库已经支持 Json 数据类型了,先塞进去,Py 再去读 DB 呢?
|
5
zynlp 2018-06-05 12:20:48 +08:00 via iPhone 1
加内存,就是这么直接
|
6
janxin 2018-06-05 12:21:33 +08:00
才 4 个 G 不会爆内存的吧...你内存不够了?
|
7
ho121 2018-06-05 12:25:21 +08:00 via Android 1
自己写个 json 解释器,支持流式读取
|
8
twor2 2018-06-05 12:25:23 +08:00 via iPhone
开一个临时的大内存云服务器
|
9
lesteryu 2018-06-05 12:31:19 +08:00 1
pip install ijson
|
10
Bramblex2 2018-06-05 12:38:59 +08:00 via iPhone
你这 json 什么结构啊…如果层数深还是长度长?
|
11
maxco292 2018-06-05 13:11:53 +08:00
Memory-mapped file
https://docs.python.org/3.0/library/mmap.html |
12
iwtbauh 2018-06-05 13:36:02 +08:00 via Android 1
@opengps Linux 自带 mount -t tmpfs 了解一下,内存文件系统,比内存盘还要高效
|
13
shilyx 2018-06-05 13:36:52 +08:00
将你的需求映射为数据接口由 c++来处理,C++用 rapidjson 来读取
rapidjson 如果还是不行,就用 c++写一个针对文件的、有限功能的 json 库 如果自己搞不定,就外包 |
14
iwtbauh 2018-06-05 13:37:34 +08:00 via Android
使用 64 位处理器,64 位操作系统和 64 位 Python 尝试
从理论上讲,64 位进程的虚拟内存可以高达 EB 级别( 32 位进程的虚拟内存通常只有 2GB 或 3GB,不可能超过 4GB ) |
15
scriptB0y 2018-06-05 13:41:56 +08:00
建议使用 less 这种文本阅读工具看一下内容,然后根据内容用代码一部分一部分的读然后切成小文件,应该是比较快的方法。
|
16
lihongjie0209 2018-06-05 13:57:00 +08:00
为什么不先导入到数据库
|
17
graysheeep 2018-06-05 14:05:39 +08:00
搞策略交易么
|
19
RicardoScofileld OP @opengps 没接触过这种工具,推荐一个谢谢啦
|
20
RicardoScofileld OP @purebluesong 你说为啥 load 的时候,会达到文件本身 10 倍的内存占用呢,是因为 Python 的数据类型导致的吗
|
21
RicardoScofileld OP @Luckyray 哎,我老大写的代码,要我优化,他服务器 32 个 G 的内存,给我开了一个 8G 的,我跑代码特么的动不动就内存溢出。真的头大
|
22
RicardoScofileld OP @zynlp 真粗暴,有没有什么免费的骚操作
|
23
RicardoScofileld OP @janxin 文件大小虽然是 4 个 G,但是 load 的时候会造成很多倍的内存占用,也不知道为什么
|
24
RicardoScofileld OP @ho121 大佬,可以来个示范代码或者链接吗,万分感激
|
25
RicardoScofileld OP @twor2 公司 32G 的服务器,也会跑崩
|
26
RicardoScofileld OP @lesteryu 查阅相关资料的时候看到这个库,我去了解一下
|
27
RicardoScofileld OP @Bramblex2 字典,嵌套字典
|
28
RicardoScofileld OP @lihongjie0209 这算一个临时的中间文件,所以没有保存数据库
|
29
RicardoScofileld OP @iwtbauh Python 版本倒是 64 位的其他就不知道了
|
30
RicardoScofileld OP @shilyx 小弟的水平看来只能 GG 了
|
31
linuxchild 2018-06-05 14:54:26 +08:00
单机 spark 试试?
|
32
USNaWen 2018-06-05 14:59:48 +08:00
rapidjson,用 SAX+流式。
https://github.com/Tencent/rapidjson |
33
ipeony 2018-06-05 15:13:26 +08:00
导 mongodb 里
|
34
flyingghost 2018-06-05 15:47:43 +08:00 4
首先,先搞清楚你把数据加载到内存后打算干吗。
这坨数据就是比你内存大,和格式无关。哪怕它是再精简不过的 bin 格式,哪怕我用 c,都无法解决 8G 内存读取 800G 数据的矛盾。 唯一的出路,就是根据数据格式和需求确定解析和计算模式,部分解析,部分计算,分治然后汇总。 建议的几种读取方式: 1,SAX 了解一下,事件流驱动的 xml 解析思路,搬到 json 上毫无问题。 2,切割原 json 文件,给它补上恰当的开始、关闭符来确保结构。 3,自己实现解析器,最 low 的状态机实现起来很简单的。然后一边解析一边处理一边丢弃。 4,如果 json 数据有某种特征,预处理一下。(比如结构体其实不复杂元素也不多,但里面有个字段的值超大,那么先文本处理 json,把这个字段抽取出来形成外部文件,json 内只留个文件名索引)其实很多超大数据集要么结构简单只是数据条数多,要么条数不多但单条比较大,很容易做针对性处理。 |
35
yedashuai 2018-06-05 15:49:46 +08:00
这是使用 generator 的最佳场景呀,流式读取和解析~~~
|
36
RicardoScofileld OP @flyingghost 这个本来是很多个文件处理后生成的一个字典,然后用 pickle dump 出去,生成一个临时中间文件,避免下次使用的时候还要经过计算生成,但是在 load 的时候,不知道为什么内存占用会成倍的增长。
|
37
RicardoScofileld OP @yedashuai 用 pickle 生成的文件,要如何流式读取解析呢
|
38
henglinli 2018-06-05 16:28:49 +08:00 via iPhone
这就是典型设计问题啊
|
39
jyf 2018-06-05 16:39:07 +08:00
有流式解析的 不过这要看你的数据本身的结构 34 楼已经说得很清楚了
|
40
RedFlag2233 2018-06-05 16:48:49 +08:00 via Android
with as 😯
|
41
crist 2018-06-05 17:00:32 +08:00
请装 16G 的内存,谢谢。
|
42
focusheart 2018-06-05 18:05:51 +08:00
嗯,看了补充内容,标题有歧义。
标题的一般理解是有个 4G 多的 xxx.json 的纯文本文件。 而实际上是一个 pickle dump 出来的对象文件比如 xxx.pkl 。 显然用 pd.read_json() 是无法读取这个 xxx.pkl 的,也不用考虑流式之类的问题。 这样几种方法解决: 1. 如#41 所说,加内存,简单有效省事。 2. 用 json 的话,重新用 json.dump() 搞一个纯文本的 xxx.json。纯文本怎么都好办。 3. pickle 并不适合搞大对象的保存。换个库来做对象序列化,marsahl 好一些,但是要注意 python 版本。 |
43
diggerdu 2018-06-05 18:54:34 +08:00
临时加个 swapfile
|
44
aimiyooo 2018-06-05 23:28:00 +08:00
4 个 G 数据,加载到内存可远远不止 4G
|
45
exhades 2018-06-06 00:03:25 +08:00
加内存咯....不过全部加载到内存干什么.....
|
46
qwertyegg 2018-06-06 01:17:41 +08:00
NoSQL
|
47
feiffy 2018-06-06 09:07:45 +08:00
如果都是条数多,嵌套层数少,相同元素多,可以流式读取文件,generator 处理啊
|
48
RicardoScofileld OP @jyf 额 是我的描述出了点问题,pickle.dump 是异于 json.dump 的,是一个超大的字典,dump 出去有 4 个多 G,但是 load 的时候内存占用成倍的增长,直接溢出
|
49
RicardoScofileld OP @crist 文件达到将近 5 个 G 的时候,32G 内存服务器偶尔会崩。。。。
|
50
RicardoScofileld OP @focusheart 是啊,我原以为这两个库作用是相同的,查阅资料的时候才发现是有区别的,误导了大家了,尴尬
|
51
RicardoScofileld OP @diggerdu 谢谢,我去了解一下
|
52
RicardoScofileld OP @aimiyooo 是啊,pickle dump 出去只有 4 个 G,load 进来的时候却成倍的增长,是不是因为数据结构的原因呢
|
53
RicardoScofileld OP @exhades 是经过处理计算的一个字典,为了减少下次运算时间,所以打算用空间换取时间,dump 出一个中间临时文件,到时候直接 load 进来的
|
54
RicardoScofileld OP @qwertyegg 如果用 nosql,我想了一下,对于 redis,貌似只能用 hash 类型,但是这个字典里面有嵌套,要保存的话,还是需要序列化
|
55
lfzyx 2018-06-06 10:16:19 +08:00
大多数应用程序都必须检索整个对象,然后仅过滤出所需数据以进行进一步分析。借助 S3 Select,应用程序可以将过滤和访问对象内部数据的繁重工作卸载到 Amazon S3 服务。
https://aws.amazon.com/cn/about-aws/whats-new/2018/04/amazon-s3-select-is-now-generally-available/?nc1=f_ls |
56
ofooo 2018-06-06 11:06:13 +08:00
你老大 32G 内存,你就和你老大说一下不就完了吗。需求不合理就提。
|
57
liangeeks 2018-06-06 11:58:06 +08:00
这么大,知道数据结构的话慢慢读,不用一次性 load 啊
|
58
RicardoScofileld OP @liangeeks pickle dump 出去的,怎么慢慢读呢
|
59
cctv1005s927 2018-06-06 14:48:33 +08:00
自己搞一个数据结构存放文件吧,json 的文件是有深度的,有些时候不读取完毕很难读取到一个 object 的内容。
|
60
beforeuwait 2018-06-14 17:14:36 +08:00
用 生成器呀
|