V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
Ewig
V2EX  ›  Python

scrapy 报错这种的如何处理

  •  
  •   Ewig · 2019-01-16 16:49:29 +08:00 · 3438 次点击
    这是一个创建于 1898 天前的主题,其中的信息可能已经有所发展或是发生改变。

    019-01-16 16:41:53 [zhipin][scrapy.downloadermiddlewares.retry] DEBUG: Retrying <GET https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html> (failed 1 times): User timeout caused connection failure: Getting https://www.zhipin.com/gongsi/df71dd0040fd77d21nN-2tS4EQ~~.html took longer than 180.0 seconds..

    6 条回复    2019-01-18 23:20:45 +08:00
    zarte
        1
    zarte  
       2019-01-16 16:52:49 +08:00
    重点:User timeout caused connection failure took longer than 180.0 seconds..
    浏览器访问下网站是不是挂了。
    pockry
        2
    pockry  
       2019-01-16 17:22:12 +08:00
    应该是被识别出是爬虫,然后送上超时大礼包。
    Ewig
        3
    Ewig  
    OP
       2019-01-16 18:10:26 +08:00
    @zarte 没有挂,可以打开
    Ewig
        4
    Ewig  
    OP
       2019-01-16 18:11:12 +08:00
    @pockry scrapy 报这种的能否重新请求
    pockry
        5
    pockry  
       2019-01-16 18:20:43 +08:00
    @Ewig 你要重写爬虫啊,UA 池、IP 代理都搞一下,延时设置下,要是还不行就上 selenium+chromedriver,肯定你能看到的都能爬。
    Ewig
        6
    Ewig  
    OP
       2019-01-18 23:20:45 +08:00
    @pockry 我 scrapy 不用 selenium 效率太低了你说的这些都搞了
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1327 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 17:44 · PVG 01:44 · LAX 10:44 · JFK 13:44
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.