1
lynnworld 2017 年 5 月 14 日
为什么每个条目这么大?
|
3
ETiV 2017 年 5 月 14 日
这么大数据,还要这么短时间。。。
要是硬盘给力的话,最快的处理方式恐怕就只有 rm -fr 了 |
4
billion 2017 年 5 月 14 日
如果你的 MongoDB 用的是阿里云,那么你可以试一试 MaxCompute
|
5
dexterzzz 2017 年 5 月 14 日
用内存,列存储数据库
|
6
Kilerd 2017 年 5 月 14 日
50GB /60 s = 1G/s
就算是连续读写这个速率都不低啊, 还要进行处理 |
7
wanglaihuai 2017 年 5 月 14 日 via Android
@ETiV 哈哈哈哈,这个最快了。
|
8
powergx 2017 年 5 月 14 日
ramdisk 可以, 延迟 /吞吐量能达标。 云端不可能有
|
9
rrfeng 2017 年 5 月 14 日
如果还会增长的话趁早改 Hadoop 平台,各种选择
如果永远这么点儿的话 MongoDB SSD 多加内存也是可以的,但是要注意主机网络带宽(云主机内网带宽),一定会成为第一个瓶颈。解决方案是分片 |
10
kaneg 2017 年 5 月 14 日 via iPhone
hanadb
|
11
chocolatesir 2017 年 5 月 14 日 via Android
或许 conoha 可以。。
|
12
ihuotui 2017 年 5 月 15 日 via iPhone
业务是怎样?单数据量有什么好说
|