使用Google进行批量SQL注入扫描-黑客接单平台

访客6年前黑客文章1247
0×01:简介 在运用GoogleHack进行SQL注入点查询时,手艺的办法一般为经过谷歌语法的inurl判别是否存在动态查询参数,然后对查询的网站url进行手艺判别是否存在SQL注入缝隙,如or 1=1 , or 1=2, 加单引号等 *** 。 在实践履行过程中,能够经过爬虫技能,定位谷歌搜索特定句子查询出的或许存在缝隙的URLS。并将这些URL经过IO写入文件中,便利履行后续的扫描作业。 这时候或许有观众要问,这个功用现已集成到了SQLMAP的谷歌模块中了,经过运用sqlmap -g 搜索句子就能够直接进行批量化扫描了。可是在笔者实践测验中发现,对英文字母的搜索句子如:https://www.google.com.hk/search?q=inurl:php?id= ,SQLMAP能够正确的进行查询,经过测验发现其测验的句子契合咱们真真实谷歌环境中搜索到的网址。可是一旦咱们有特别的需求,如搜索特定区域的url,搜索存在中文字符的网站内容的url如: https://www.google.com.hk/search?q=inurl:php?id= -site:stackoverflow.com -site:php.net intext:王小强 则SQLMAP会主动过滤intext句子中的中文,回来不加过滤后的成果。 在实践测验中,英文字母的intext不受影响。 基于此,咱们能够运用Python爬虫获取到谷歌搜索的URL生成TXT文件,在运用SQLMAP(或其他SQL扫描东西),进行二次扫描。 0×02:Python爬虫爬取链接 因为谷歌对灵敏句子的安全措施,首先要设置署理池和定制头 代码如下: import requests from lxml import etree import io import sys proxies = { "http": "http://142.93.130.xxx:8118", "https": "http://31.220.51.xxx:80" } headers={ 'accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'accept-encoding':'gzip, deflate, sdch, br', 'cache-control':'max-age=0', 'upgrade-insecure-requests':'1', 'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:18.0) Gecko/20100101 Firefox/18.0', 'Referer': 'https://www.google.com.hk/', //cookie可加可不加 r=requests.get('https://www.google.com.hk/search?q=inurl:php?id= -site:stackoverflow.com -site:php.net intext:王小强&lr=lang_zh-CN&num=5000',headers=headers,) 然后运用requests库恳求谷歌的搜索句子 r=requests.get('https://www.google.com.hk/search?q=inurl:php?id= -site:stackoverflow.com -site:php.net intext:王小强&lr=lang_zh-CN&num=5000',headers=headers,) 其间对lr标签设置能够只回来中文成果。 然后运用xpath定位咱们需求的成果的DOM地址 e=etree.HTML(r.text) # print(e.xpath('//div/node()')) name=e.xpath('//h3[@class="115f-b580-81c1-ef7d LC20lb"]/node()') url=e.xpath('//cite[@class="b580-81c1-ef7d-3b05 iUh30"]/node()') # print(name) # print(url) filename='ip.txt' with open(filename,'w',encoding='utf-8') as f: for i in url: f.write(i+'n') # print(name) # print(url) class的姓名能够依据实践情况中的成果进行更改。 最终将成果写入txt文件中即可。 0×03:Url存活性查验 在实践中咱们发现,这样得到的IP地址有很多是没有呼应的,假如对一切的地址进行扫描,会十分费时吃力,咱们要进行二次过滤,运用Python批量对地址进行恳求, 过滤掉不呼应或呼应过慢的网页。 详细代码完成如下 import socket import asyncio import sys import queue import threading import requests iplist=[] class socket1(): def __init__(self,i): self.i=i # print(target) def scan(self,ip,i): # print("start scan") # print(s.connect_ex((self.target,80))) # for i in range(1,100): # print(i) s=requests.get(ip,timeout=6) if s.status_code==200: # print(ip,'open') iplist.append(ip) def worker(self,q): while not q.empty(): ip=str(q.get()) if ('http' or 'https') in ip: ip=ip else: ip='http://'+ip print(ip)[1][2][3]黑客接单网

相关文章

黑客接单网:现在杀毒软件的现状为什么开始走下坡路_杀毒软件的前世今生

黑客接单网:现在杀毒软件的现状为什么开始走下坡路_杀毒软件的前世今生

今天黑客接单网来和大家谈一谈我国杀毒软件的现状,现在大家打开杀毒软件大多数都会出现很多弹窗广告被大家说成流氓软件,为什么会出现这样的情况呢,我国网络安全也在走下坡路,我来和大家说说: 第...

根据机器学习的web反常检测

Web防火墙是信息安全的第一道防地。跟着网络技能的快速更新,新的黑客技能也层出不穷,为传统规矩防火墙带来了应战。传统web侵略检测技能经过保护规矩集对侵略拜访进行阻拦。一方面,硬规矩在灵敏的黑客面前,...

在Microsoft Edge中完成DOM树

DOM是Web渠道编程模型的根底,其规划和功用直接影响着浏览器管道(Pipeline)的模型,可是,DOM的前史演化却远不是一个简略的工作。 在曩昔三年中,微软的安全专家们早现已开端在Microsof...

你不在意的HTTPS证书吊销机制-黑客接单平台

缘起偶刷《长安十二时辰》,午睡时,梦到我穿越到了唐朝,在长安城中的靖安司,做了一天的靖安司司丞。当徐宾遇害消失的时分我不在司内,其时的景象我不得而知。后来徐宾醒了,据他描述说“通传陆三”是暗桩,几乎致...

Java安全编码之用户输入

1、传统Web使用与新式移动使用 (1)传统Web使用:浏览器 HTTP 服务器(2)新式移动使用:APP HTTP 服务器 从安全视点看,传统Web使用与新式移动使用没有本质区别 2、Web使用安全...

向Web服务器投递恶意挖矿软件的蠕虫-黑客接单平台

实践中,面向公共互联网供给服务的体系或服务器,都是处于边际方位的。所以无论是物联网设备仍是企业级服务器,只要能被外界访问到,那就会无时无刻被进犯。 最近,咱们发现了一种进犯方法,多个公司Apache...