爬虫技术实战

Manning 2015-04-03 09:21:00

0x00 前言


项目开源地址: https://github.com/manning23/MSpider

上篇文章《爬虫技术浅析》介绍了爬虫的基本技术,分享了一个动态爬虫demo。这篇文章主要讲解爬虫技术的实战效果。 本次介绍的结果如下:

  • 1.爬虫的URL聚焦与过滤

  • 2.URL相似度算法抛砖引玉

  • 3.爬行策略详解

  • 4.Mspider工具使用说明及效果展示

  • 5.Mspider的头脑风暴

0x01 爬虫的URL聚焦与过滤


为什么爬虫需要URL聚焦与过滤?因为我们需要控制预期结果!

举个例子,如果爬行的目的是爬取乌云已知漏洞列表,那么一般类型的爬虫是无法满足的,一般爬虫会进行如下形式的爬取。爬取的URL是杂乱的。

聚焦爬虫爬取的URL是符合预期的。如下图展示。

可以看出来,聚焦爬虫和非聚焦爬虫都是从www.wooyun.org开始爬取,聚焦爬虫可以按照一定策略尽量控制URL爬取策略,而非聚焦爬虫却完成不了这种特定需求。

在爬虫过滤模块中,我们需要理解什么是过滤,什么是聚焦。简单的说,如果过滤关键字在url中,则返回False,否则返回True。如果聚焦关键字在url中,则返回True,否则返回False。具体可以查看Mspider中的urlfilter.py文件。

0x02 URL相似度算法抛砖引玉


URL相似度算法在爬虫里不言而喻,这个算法直接决定着爬虫的爬行效率,我将讲解一下我的算法,算是抛砖引玉。

这个算法主要是依靠对URL的拆解与对拆解对象的HASH,这个算法适用类似的需求常见。这个算法是将一个URL拆解为三个维度,第一个维度是netloc,第二个维度是path的各项长度,第三个维度是query对象的参数排序后列表。通过一个数据结构对以上三个维度组合,构建一个可hash的对象。

利用集合数据结构进行去重,这个能大幅减小普通URL相似度算法对于hash后结果冲突的问题。实际效果如下图。

当爬取了875个链接时,实际相似页面已达到了269849个,因此对于爬虫效率来讲,是个很好的提升。

这个算法只是实际经验值,实践后得到良好的实际效果,希望大家也能思考更为优秀的相似度算法。

0x03 爬行策略详解


一般爬行策略为广度优先、深度优先。深度优先搜索通过栈来实现,而广度优先搜索通过队列来实现。

下面图中的数字显示了深度优先搜索顶点被访问的顺序。  

下面图中的数字显示了广度优先搜索顶点被访问的顺序。

Mspider中实现爬行策略,这三种搜索方式都是通过对URL队列的排序方式进行调整,通过队列中URL结点的深度参数进行调整,来达到需求目的,爬行策略根据不同需求设置,能更快的发现可疑URL链接。

上图当爬行了810个链接时,实际爬行的深度已达到了15层。在实际测试过程中,深度优先爬行能更好的发现可疑链接。

0x04 Mspider工具使用说明及效果展示


Mspider是本人开发的一个以CLI方式运行的爬虫工具。此爬虫实现了如下功能。希望大家多多star和fork。也欢迎大家随时给我邮箱发送邮件提bug。

CLI下展示如下:

此爬虫还可以通过文件的config.py进行更详细的配置,比如爬行间隔,忽略标签列表,动静分配比例,user-agent字典等。

提供几个测试场景:

爬行乌云白帽子列表

命令:

python run.py -u "http://www.wooyun.org" -k "wooyun.org" --focus "whitehats" --similarity 1 --storage 3

效果:

深度优先爬行edu站点,进行url相似度过滤,爬行个数为500个

命令:

python -u run.py "http://www.njtu.edu.cn/" -k "edu.cn" --policy 1 --storage 0 --count 500

效果:

爬行联想域名内连接,域名过滤bbs关键字,动态爬行网页,随机优先策略

命令:

python run.py -u "lenovo" -k "lenovo" --ignore "bbs" --model 1 --policy 2

效果:

0x05 Mspider的头脑风暴


通过改写Mspider的一些功能,比如页面分析模块,URL过滤模块,数据储存模块,可以获得更深入更有意思的信息。

举个例子,想要获取乌云中sql注入类型漏洞的SQL注入payload。在聚焦爬虫中,通过对改写数据储存模块,让数据库记录获取的dom树,并储存,接着对dom树进行数据挖掘,便可简单实现。

0x06 参考文章


基于URL规则的聚焦爬虫及其应用

图的深度优先和广度优先搜索

评论

S

sin 2015-04-03 10:21:13

66666666

I

insight-labs 2015-04-03 11:09:25

用set去重不如用bloom filter

M

Manning 2015-04-03 11:13:44

考虑了这个问题,一懒就没移植...其实爬了很多网站,基本都是200w内重复数量,set不用考虑冲突的问题

S

saber 2015-04-03 16:46:55

挺屌,可扩展做的好的话能做很多事^_^

我是360安全忍者小号r00t4dm 2015-04-04 11:31:52

python版本是多少?

挖洞菜嘘鲲 2015-04-04 16:27:40

学习学习

风之传说 2015-04-04 23:42:12

python 2.7 运行报错。。

赵日天 2015-04-06 20:00:41

你的那个去相似度..跟我用都差不多.
其实很鸡肋的
现在很多站点都是伪静态.各种二级目录.通过过滤完全无法处理.
我也在思考这一块。
想过用HTML里的一些 元素做判断、
额不说了- -LOL了

M

Manning 2015-04-07 08:53:24

说的太绝对了吧?你仔细看代码了吗?

路人甲 2015-04-08 20:31:15

SIMILARITY与STORAGE_MODEL之间是不是做约束比较好,
要不SIMILARITY=0 && STORAGE_MODEL=0或者
SIMILARITY=1 && STORAGE_MODEL=1
都不会存储

M

Manning 2015-04-09 08:39:37

接受!我记下来!

路人甲 2015-04-09 16:34:17

菜鸟一枚,请教一下,爬行过程中哪个模块或是哪个函数是控制url去重的?

C

ccSec 2015-04-21 10:43:06

要是能支持AJAX爬行就好了

S

sf0l 2015-06-11 10:17:28

坐等楼主下一篇文章 ^_^

杨某某 2016-04-25 14:47:43

为什么github下载的和文章里说的差异这么大呀?是修改过的?入库这些功能都舍弃了?
PS:看了下crawl.py的代码,form里的post行的link是不爬取的?

路人甲 2016-05-25 15:18:55

我觉得对于开发者来说,能脚本化编写爬虫是一件挺开心的事情( ̄▽ ̄)"。所以我们团队开发了一个专门让开发者用简单的几行 javascript 就能在云上编写和运行复杂爬虫的系统,叫神箭手云爬虫开发平台: http://www.shenjianshou.cn 。欢迎同行们来试用拍砖,尽情给俺们提意见。有想法的可以加群讨论: 342953471

M

Manning

https://github.com/manning23/MSpider

twitter weibo github wechat

随机分类

浏览器安全 文章:36 篇
XSS 文章:34 篇
运维安全 文章:62 篇
逻辑漏洞 文章:15 篇
SQL注入 文章:39 篇

扫码关注公众号

WeChat Offical Account QRCode

最新评论

Article_kelp

因为这里的静态目录访功能应该理解为绑定在static路径下的内置路由,你需要用s

N

Nas

师傅您好!_static_url_path那 flag在当前目录下 通过原型链污

Z

zhangy

你好,为什么我也是用windows2016和win10,但是流量是smb3,加密

K

k0uaz

foniw师傅提到的setfge当在类的字段名成是age时不会自动调用。因为获取

Yukong

🐮皮

目录