V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
推荐学习书目
Learn Python the Hard Way
Python Sites
PyPI - Python Package Index
http://diveintopython.org/toc/index.html
Pocoo
值得关注的项目
PyPy
Celery
Jinja2
Read the Docs
gevent
pyenv
virtualenv
Stackless Python
Beautiful Soup
结巴中文分词
Green Unicorn
Sentry
Shovel
Pyflakes
pytest
Python 编程
pep8 Checker
Styles
PEP 8
Google Python Style Guide
Code Style from The Hitchhiker's Guide
SpiderXiantang
V2EX  ›  Python

scrapyd 怎么可以让爬虫定时采集

  •  
  •   SpiderXiantang ·
    xiantang · 2018-08-14 18:03:18 +08:00 · 3895 次点击
    这是一个创建于 2295 天前的主题,其中的信息可能已经有所发展或是发生改变。

    看了一下 scrapyd 的 api 感觉功能好少啊 而且对分布式也没有支持 我现在遇到的问题是是需要采集一家电商网站 然后反复爬取 进行价格的监控 请问下有没有大佬有思路

    5 条回复    2018-11-14 23:56:16 +08:00
    SpiderXiantang
        1
    SpiderXiantang  
    OP
       2018-08-14 18:10:42 +08:00
    还有就是如何同时启动分布式爬虫 求思路!
    zzj0311
        2
    zzj0311  
       2018-08-14 21:44:31 +08:00 via Android
    crontab 了解一下?
    masha
        3
    masha  
       2018-08-15 00:13:03 +08:00
    分布式可以试试 scrapy-redis
    SpiderXiantang
        4
    SpiderXiantang  
    OP
       2018-08-15 09:15:09 +08:00
    @masha 我用的 scrapy-redis 但是不知道怎么协同启动爬虫 我需要反复的监控这个网站
    my8100
        5
    my8100  
       2018-11-14 23:56:16 +08:00
    @SpiderXiantang 如何简单高效地部署和监控分布式爬虫项目 https://www.v2ex.com/t/507933
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1000 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 21:43 · PVG 05:43 · LAX 13:43 · JFK 16:43
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.