V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  hanssx  ›  全部回复第 50 页 / 共 53 页
回复总数  1044
1 ... 42  43  44  45  46  47  48  49  50  51 ... 53  
@ytymf 多谢师父,晚上我改一下试试。
@ytymf 多谢指教,学到了。我这个主进程是 celery worker 产生的进程,我代码中并没有用线程,更没有用多线程。僵尸进程产生的原因应该子进程结束之后,父进程仍然存在且没有 wait 或 communicate 子进程,也就是没处理子进程发来的 SIGCHILD KILL 那个信号。
@hhbcarl 谢谢师父,你说的这个 canvas 之前有了解,但是现在项目代码不太容易改,周末尝试一下。
----------------------------------------------------------------------------------------------------------------------------------------
@ClericPy 是僵尸进程,Z 代表 Zombie,僵尸进程产生的原因是因为子进程结束之后,父进程仍然存在且没有 wait 或 communicate 子进程,产生原因我倒是清楚,只是不明白为什么一开始就有子进程结束,因为队列里面的东西很多,不可能一开始子进程就结束的。
----------------------------------------------------------------------------------------------------------------------------------------
@ytymf “multiprocessing 一定要确保父进程是单线程的”,这个是啥意思呀,是确保父进程是单进程吧? celery worker 里面看确实是单进程。
2019-10-25 11:58:04 +08:00
回复了 zbl430 创建的主题 Linux QQ For Linux 我哭了,官方版
要是有企业微信就好了。
2019-10-21 17:30:02 +08:00
回复了 eteryao 创建的主题 Python celery +redis missed heartbeat from celery
换用 rmq 吧,redis 不建议使用在生产环境中。
前几天我使用 celery v4.3 + rmq 3.7.7 也遇到了你这问题,好像是网络原因,你不会和我一样执行得是扫描任务吧?
话说这个问题不应该是 INFO 吗?不是 ERROR 吧。
可以尝试把 heartbeat 关掉。
https://stackoverflow.com/questions/21132240/celery-missed-heartbeat-on-node-lost
2019-09-09 11:33:48 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@neoblackcap 嗯,我使用得是你说的 nmap 的 Python 封装库,源码里面使用得也是 subprocess.Popen(),额,需要时可加我扣扣,随时欢迎师父加我。
2019-09-08 10:27:04 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
已确定为 logging 死锁问题,50 块钱由崔庆才师父和 @neoblackcap 师父平分,
@neoblackcap 师父,加我一下扣扣 9 六 14 六 2392,把支付宝账号发我即可。
2019-09-04 22:49:49 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
多进程可以解决这个问题,之前 @崔庆才师父说可能是 logging 死锁的问题,很有可能,待下一步确定。
2019-09-03 16:15:57 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
2019-09-03 Update:
已经修改为 multiprocessing 多线程,但实际测试时,celery 不能直接使用 multiprocessing,解决方案参见 https://stackoverflow.com/questions/30624290/celery-daemonic-processes-are-not-allowed-to-have-children
因为使用 cavas 改动比较大,所以我直接使用得 import billiard as multiprocessing
目前运行中,持续观察。
2019-09-03 11:08:28 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@xixijun 感谢 xixijun 师父的回答,请问师父你说的可以,是指使用多进程来代替多线程吗?我这边扫的是公司全网,就是扫完之后 celery worker 就卡住假死了,具体详情可查看一下问题描述。
2019-09-02 23:40:41 +08:00
回复了 lbfeng 创建的主题 Python Thread join 有点困惑
正如 4l 所说,t1.join()有意义,t5 所需时间比 t1 长,所以这个代码可以只用 t5.join(),但是实际当中复杂场景你怎么知道哪个线程时间长呢?
另附 join vs. wait 中文区别
线程运行 sleep()或 join()方法后,线程进入 Sleeping 状态。区别在于 sleep 等待固定的时间,而 join 是等待子线程执行完。当然 join 也可以指定一个“超时时间”。从语义上来说,如果两个线程 a、b, 在 a 中调用 b.join(),相当于合并(join)成一个线程。最常见的情况是在主线程中 join 所有的子线程。
2019-09-02 18:46:11 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@neoblackcap 我不明白为啥不可以,我先试试用多进程,你也说了 celery 对线程支持有缺陷,网络请求的阻塞是必然的。
2019-09-02 16:47:12 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@neoblackcap 谢谢,gevent 实现 nmap 的功能基本不可能,必须得使用 subprocess.Popen 去调用 nmap,这种情况下,我使用多进程代替多线程可以吗?你之前说进程或者 gevent 都可以。
2019-09-02 14:45:58 +08:00
回复了 akmonde 创建的主题 Python celery 处理结果的入库问题
考虑做成 RPC ?
2019-09-02 13:33:38 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@sazima 嗯,本身触发任务的时候,就是用的 apply_async(),应该和这个关系不大。
2019-09-02 13:26:56 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
@neoblackcap 谢谢 neoblackcap 师父指点,我还有几点想请教师父,
1. 总体而言就是不使用线程而使用进程或 gevent,是吧?
2. 之前每个线程执行的内容是使用 subprocess.Popen()调用外部 nmap 扫描该 ip 并将结果入库,主要是两个方面:一是调用 busprocess.Popen(),也就是终究还是会使用子进程;二是会有入库操作,这个应该不算是 CPU 密集型处理?怎么界定 CPU 密集型处理呢?
3. 我这个 nmap 扫描应属于网络 IO 密集型,是不是使用 gevent 比较好?
4. 我对 gevent 不熟悉,不知改动量大不大,师父能提供一些更改的方法吗?
2019-09-02 12:26:44 +08:00
回复了 hanssx 创建的主题 Python celery worker 多线程执行完后卡住假死
celery 版本
```
(asset) [root@VM_9_196_centos asset]# celery --version
4.3.0 (rhubarb)
```

多线程应该是结束了,我在日志中收到了 break 线程的 while 循环之前,打印出的日志,一共 30 个日志,我也启了 30 个线程。
```
[2019-08-31 22:47:31] [ERROR] - (asscan.py:38)
Traceback (most recent call last):
File "/root/python/asset/scan/asscan.py", line 34, in run
task_host = self.queue.get(block=False)
File "/usr/local/python3/lib/python3.7/queue.py", line 167, in get
raise Empty
_queue.Empty
[2019-08-31 22:48:12] [ERROR] - (asscan.py:38)
Traceback (most recent call last):
File "/root/python/asset/scan/asscan.py", line 34, in run
task_host = self.queue.get(block=False)
File "/usr/local/python3/lib/python3.7/queue.py", line 167, in get
raise Empty
_queue.Empty
[2019-08-31 22:48:12] [WARNING] - web_fingerprint_discern begin! (log.py:235)
[2019-09-02 10:21:21] [WARNING] - () (log.py:235)
[2019-09-02 10:21:21] [WARNING] - {'task_uuid': '95c3dda4-cb04-11e9-a344-52540
```
2019-08-27 14:17:43 +08:00
回复了 hanssx 创建的主题 Python celery 到底能不能动态添加周期任务
2019-08-26 22:05:23 +08:00
回复了 hanssx 创建的主题 Python celery 到底能不能动态添加周期任务
推荐个国人写的,但是我用着有些问题,examples/base/tasks.py 文件是没有问题的,https://github.com/AngelLiang/celery-sqlalchemy-scheduler
2019-08-26 18:14:15 +08:00
回复了 hanssx 创建的主题 Python celery 到底能不能动态添加周期任务
@Eds1995 感谢,不过不怎么会用,文档有点少。
1 ... 42  43  44  45  46  47  48  49  50  51 ... 53  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   4396 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 28ms · UTC 05:23 · PVG 13:23 · LAX 22:23 · JFK 01:23
Developed with CodeLauncher
♥ Do have faith in what you're doing.