V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wuzhizuiguo  ›  全部回复第 1 页 / 共 5 页
回复总数  92
1  2  3  4  5  
2021-02-28 16:48:18 +08:00
回复了 wuzhizuiguo 创建的主题 Java RPC 调用过多导致 Hystrix 熔断了接口 timeout 了怎么办
@DoctorCat time out 是因为访问量太大了,调用不过来,服务它自身给 time out 了.
timeout,会收到短信,我们就上去重启下... 不知道怎么控制, 又不能停止访问调用(真停了就是很尴尬,只能快点处理).
2021-02-26 14:06:40 +08:00
回复了 boblin 创建的主题 程序员 小公司的苦恼,最近好丧。
租房 工作稳定了就不想挪窝,技术永远是够用差不多,原理不懂, 老家老家又回不去(房价也看齐),薪资不如同学,一个人过时可以装睡装死. 真要相亲成家时,还是得涨薪重新找.迷茫.
2021-02-24 11:44:26 +08:00
回复了 TargaryenChen 创建的主题 程序员 突发奇想:如果穿越到古代 你想学好哪一方面的知识?
乱世军事谋略, 盛世诗词歌赋, 当然还是得有钱...
2021-01-22 13:50:13 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@aibangjuxin 大佬强啊, fgrep 没有报 "grep: memory exhausted"
2021-01-18 09:48:59 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@jaliemoon 以后可能用得着 现在我们日志基本不带时间...
grep -C 10 "关键字" /root/logs/a.out 可能会报 Binary file matches, 用 grep -a "关键字" /root/logs/a.out , 如果再想查询上下 N 行(10 行), grep -aC 10 "关键字" /root/logs/a.out
2021-01-15 15:29:09 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
好的,谢谢各位大佬的帮助. 现在选择了 不定时清理日志(体积小,但是以往的结果就不能查了... 也怕几个日志大了 空间不够了)
最终汇总下.
小日志文件, 查看末尾几行 tail -n 500 /root/logs/a.out;
有关键词时, cat /root/logs/a.out |grep -C 10 "关键字" , 定位"关键字"上下 10 行内容 (文件大时,grep: memory exhausted)
或者 grep -C 10 "关键字" /root/logs/a.out (遇到我这种有超长行的, 也会 memory exhausted)
坛友提到的 vim 打开, 这个我在其他帖子看到, 大文件也不能这样做.
如果是 末行几行, 例如 几万行内(从时间推算), 可以用 tail -n 30000 /root/logs/a.out > tmp.out 去截取日志, 变小了,然后再去查询关键字. (行数太大,也会报错)
tar 把文件下载回来, 用 UltraEdit 查看(不过太大了 下载也是个问题..,生成的日志 UltraEdit 中文乱码 )
或者分割文件, 变小了再查看.
日志可以按时间分开,每天一个文件等.
2021-01-13 20:44:08 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@fuis 准备日志去掉不必要的长数据行, 部分缺少的参数 加到阿里云日志里去. 下载使用 UltraEdit. grep 也确实不怎么用过..
2021-01-13 20:39:21 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@liuxu 50000 12.23MB
2021-01-13 17:38:40 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@Lee2019
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 127979
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 65535
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 127979
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
2021-01-13 17:37:55 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@xuboying 对,是有很长的一行(多行)
2021-01-13 17:35:08 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@dajj 还是不行.. grep: memory exhausted
2021-01-13 17:12:04 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@SuperManNoPain 文件太大了(比下动作片还慢),本地也没有 10G 内存 会影响查看吗? (后面实在不行我准备试试)
2021-01-13 17:05:31 +08:00
回复了 wuzhizuiguo 创建的主题 Linux Linux 根据关键字查看大文件日志,grep: memory exhausted
@Jooooooooo 还是... grep: memory exhausted
谢谢. 汇总下. 分区尝试了,失败了.
缓存, 如果是看整体的, 不涉及时间的可以. 跑定时器,查出所有的门店情况, 缓存着.
老数据每天存起来, 查的时候, 时间按天来, 以前的去找老数据,今天的去库里 建时间索引查询.
还有就是数据库的性能也很关键,同一条语句, 正式测试环境差距很大, 耗时是 0.几秒 -> 三四秒, 再加条数统计就更爆炸了.
准备暂时不改动... 慢就慢吧.
要改的时候, 就采用 订单产生后 相应的去统计表里 按天增量数据, 查询的时候 老数据结合新数据.
@Nillouise 因为要按额度排序, 选择时间范围内, 数据量多
@wangritian 没有加锁, 订单插入了,异常 统计销售的没有插入..
@renmu123 哈哈, 限制也是有点儿, 时间, 但 时间跨度大一些 就明显慢了.
@matrix67 好的,现在算是实时的, 底下商户也要看下实际销售情况. 没想到 order by 这么慢
@wangritian 嗯,原来也加了表, 但是数据不准. 又返回去了.
@cloverzrg2 是的,现在要实时的..
1  2  3  4  5  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2489 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 10:30 · PVG 18:30 · LAX 03:30 · JFK 06:30
Developed with CodeLauncher
♥ Do have faith in what you're doing.