一直有这么一个想法。当得到某0day,我怎样才能最快知道在某大厂商的任意子域名、任意端口下是否存在此漏洞。
于是猥琐的想法就产生了,首先得到乌云所有厂商的url,然后再逐个得到所有厂商的子域名,然后就是端口信息,cms静态文件以及各种包含某特征的url,如action、do、upload...
最后整理成一个数据库,这个数据库可以达到如下效果:
1.如最近dz又出漏洞了,我只要搜索dz,就能查找出全部厂商里有哪些在使用dz,包括所有的子域名
2.如搜索后台,就能直接每天批量爆破各大厂商的后台
..
还有很多猥琐想法,暂时表达不出来。
其实已经有人做了类似的事
http://fofa.so
http://websth.com
百度是DZ?为什么之前出0day没有拿下百度?哈~~~
好像偏题了..
表示我是新手,代码是之前某个脚本改的.
import urllib2 import sgmllib class LinksParser(sgmllib.SGMLParser): urls = [] def do_a(self, attrs): for name, value in attrs: if name == 'href' and value not in self.urls: if value.startswith('http'): self.urls.append(value) print value else: continue return def get_url(uu): p = LinksParser() u = uu f = urllib2.urlopen(u) value = f.read() p.feed(value) for url in p.urls: print url f.close() p.close() if __name__ == "__main__": for x in xrange(1,28): s = str(x) get_url('http://wooyun.org/corps/page/'+s)
运行效果:
爬取Google搜索结果:
#coding=utf-8 import urllib2,urllib import simplejson seachstr = 'site:qq.com' for x in range(10): print "page:%s"%(x+1) page = x * 8 url = ('https://ajax.googleapis.com/ajax/services/search/web' '?v=1.0&q=%s&rsz=8&start=%s') % (urllib.quote(seachstr),page) try: request = urllib2.Request( url, None, {'Referer': 'http://www.google.com.hk'}) response = urllib2.urlopen(request) results = simplejson.load(response) infoaaa = results['responseData']['results'] except Exception,e: print e print url else: for minfo in infoaaa: print minfo['url']
运行效果:
这里有一个问题,希望大神能帮解决。
当你运行这个脚本,会发现取到第9页就会报一个错误,一开始以为是代码错误,后来才知道这个接口只能取64条数据,这让那些追求极致的人很闹心啊,我才不会满足64条~~
弱弱的说一句,我以前从来没抓取过Google,抓取也是随便测试一下,一般都是抓一两个页面就不玩了。
然后我天真的直接这样抓取https://www.google.com.hk/search?hl=zh-CN&source=hp&q=xss
突然发现根本无法得到这个搜索结果,然后我觉得我代码错了,可是我把url换成百度的又正常了。
然后问了度娘和GG,才知道它的搜索内容全部在JS里,又要用到WebKit模拟运行执行它..表示不懂。
各种吐槽:
1#
YY-2012 (那痛,谁懂?) | 2014-05-23 15:13
球厂商网址。。
2#
YY-2012 (那痛,谁懂?) | 2014-05-23 15:14
好人一生平安。。
3#
jeary ((:?办么怎,了多越来越法方象抽的我)) | 2014-05-23 15:14
@YY-2012 自己运行一遍- -.
4#
点点 (http://t.qq.com/ox_diandi) | 2014-05-23 15:17
貌似谷歌 查询 有限制 你用必应吧
5#
c4bbage (出售 weisuo.org) | 2014-05-23 15:18
root@weisuo:~# theharvester -d baidu.com -b all -l 500
6#
scanf (学习) | 2014-05-23 15:20
求dz最新0day
7#
random_ (精神的最高境界是自由) | 2014-05-23 15:29
http://fofa.so/search/result?page=%22
8#
jeary ((:?办么怎,了多越来越法方象抽的我)) | 2014-05-23 15:31
@random_ 大牛拿下了分享裤子给我~~
9#
0x_Jin (世上人多心不齐) | 2014-05-23 15:56
@jeary 用Node.js吧 能解析html 然后直接从元素里拿值就好了~ 我就用Node.js写的
10#
jeary ((:?办么怎,了多越来越法方象抽的我)) | 2014-05-23 16:02
@0x_Jin py都没玩熟,又在坑我去学Node..
11#
蟋蟀哥哥 (̷ͣ̑̆ͯ̆̋͋̒ͩ͊̋̇̒ͦ̿̐͞҉̷̻̖͎̦̼) | 2014-05-23 16:03
其实哥老早就想做这个事情了。。。
12#
hack | 2014-05-23 16:20
@jeary 求大神Q....
13#
叽叽歪歪 (?) | 2014-05-23 16:32
http://websth.com/ 这个思路才是赞啊。集大家的智慧收集各个网站指纹。
14#
寂寞的瘦子 (LISP异教徒) | 2014-05-23 16:44
@jeary 来来来,学习lisp,让你的抽象方法更加高级抽象化
15#
从容 (快点交出0day,我保证不砍死你- -.) | 2014-05-23 17:39
好思路!
够猥琐!
赞一个!
⊙▽⊙
16#
jeary ((:?办么怎,了多越来越法方象抽的我)) | 2014-05-23 17:42
@寂寞的瘦子 都在坑我。
17#
jeary ((:?办么怎,了多越来越法方象抽的我)) | 2014-05-23 17:43
@hack QQ查找root#jeary.org即可
18#
7dscan | 2014-05-23 17:49
就是厂商版的shodan吗。。。
19#
龙臣 (你站住了标准,你就成为了标准。) | 2014-05-23 19:16
mark
20#
tnt1200 (%0a%0a%0a%0a) | 2014-05-23 19:35
可以试试splinter
一个WebKit动态爬虫框架,需要配合本机具体WebKit引擎使用,来模拟浏览器行为,进行DOM动态解析,Ajax解析等等,Python封装,支持Chrome,FireFox等浏览器,同时也支持无界面的Webkit引擎Phantomjs,本爬虫动态解析部分使用。
21#
Bloodwolf (little wolf) | 2014-05-23 20:02
其实可以实现利用BING接口全网段IP反查,然后google利用轮换代理搜索抓取链接!话说已经做了,BING真贵。。
留言评论(旧系统):