V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zdnyp
V2EX  ›  程序员

scrapy 的 crawlspider 中 deny 的设置无效?

  •  
  •   zdnyp · 2019-01-02 13:34:36 +08:00 · 1648 次点击
    这是一个创建于 2157 天前的主题,其中的信息可能已经有所发展或是发生改变。

    在 Rule 中设置了 deny,但是并未生效:

    代码如下: '123123':( Rule(LinkExtractor(allow='\d+-\d+-\d+/.*?-.*?.shtml', deny=('http://search.******.com.cn/.*?')), callback='parse_item', follow=True), Rule(LinkExtractor(allow='a[href^="http"]',deny_domains=('http://auto.******.com.cn')), follow=True) )

    运行的时候还是有 debug 禁止的链接: 是这样插入图片么

    第 1 条附言  ·  2019-01-02 16:47:40 +08:00
    没人来消灭一下零回复么...
    目前尚无回复
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2228 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 24ms · UTC 16:13 · PVG 00:13 · LAX 08:13 · JFK 11:13
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.