日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
htcap:一款實(shí)用的遞歸型Web漏洞掃描工具

今天給大家介紹的是一款名叫 htcap 的開(kāi)源 Web 漏洞掃描工具,它通過(guò)攔截 AJAX 調(diào)用和頁(yè)面 DOM 結(jié)構(gòu)的變化并采用遞歸的形式來(lái)爬取單頁(yè)面應(yīng)用(SPA)。htcap 并不是一款新型的漏洞掃描工具,因?yàn)樗饕槍?duì)的是漏洞掃描點(diǎn)的爬取過(guò)程,然后使用外部工具來(lái)掃描安全漏洞。在 htcap 的幫助下,我們就可以通過(guò)手動(dòng)或自動(dòng)滲透測(cè)試來(lái)對(duì)現(xiàn)代 Web應(yīng)用進(jìn)行漏洞掃描了。

創(chuàng)新互聯(lián)主要從事網(wǎng)站設(shè)計(jì)、網(wǎng)站制作、網(wǎng)頁(yè)設(shè)計(jì)、企業(yè)做網(wǎng)站、公司建網(wǎng)站等業(yè)務(wù)。立足成都服務(wù)獲嘉,十余年網(wǎng)站建設(shè)經(jīng)驗(yàn),價(jià)格優(yōu)惠、服務(wù)專業(yè),歡迎來(lái)電咨詢建站服務(wù):028-86922220

一、環(huán)境要求

  1. Python 2.7
  2. PhantomJS v2
  3. Sqlmap
  4. Arachni

二、工具下載和運(yùn)行

 
 
 
  1. $ git clonehttps://github.com/segment-srl/htcap.git htcap 
  2. $ htcap/htcap.py 

三、命令行參數(shù)

 
 
 
  1. $ htcap crawl -h 
  2.  
  3. usage: htcap [options] url outfile 
  4.  
  5. Options:  
  6.  
  7.  -h               幫助菜單 
  8.  
  9.  -w               覆蓋輸出文件 
  10.  
  11.  -q               不顯示處理過(guò)程信息 
  12.  
  13.   -mMODE         設(shè)置爬取模式: 
  14.  
  15.                      - passive:不與頁(yè)面交互 
  16.  
  17.                       - active:觸發(fā)事件 
  18.  
  19.                       - aggressive:填寫輸入值并爬取表單 (默認(rèn)) 
  20.  
  21.   -sSCOPE          設(shè)置爬取范圍: 
  22.  
  23.                       - domain:僅爬取當(dāng)前域名 (默認(rèn)) 
  24.  
  25.                       - directory:僅爬取檔期那目錄 (以及子目錄)  
  26.  
  27.                       - url: 僅分析單一頁(yè)面 
  28.  
  29.  -D               最大爬取深度 (默認(rèn): 100) 
  30.  
  31.  -P               連續(xù)表單的最大爬取深度 (默認(rèn): 10) 
  32.  
  33.  -F               主動(dòng)模式下不爬取表單 
  34.  
  35.  -H               保存頁(yè)面生成的HTML代碼 
  36.  
  37.   -dDOMAINS      待掃描的域名,多個(gè)域名用逗號(hào)分隔 (例如*.target.com) 
  38.  
  39.   -cCOOKIES       以JSON格式或name=value鍵值對(duì)的形式設(shè)置cookie,多個(gè)值用分號(hào)隔開(kāi) 
  40.  
  41.   -CCOOKIE_FILE   包含cookie的文件路徑  
  42.  
  43.   -rREFERER       設(shè)置初始引用 
  44.  
  45.   -xEXCLUDED      不掃描的URL地址,多個(gè)地址用逗號(hào)隔開(kāi) 
  46.  
  47.   -pPROXY         設(shè)置代理,protocol:host:port-  支持'http'或'socks5' 
  48.  
  49.   -nTHREADS       爬蟲(chóng)線程數(shù)量 (默認(rèn): 10) 
  50.  
  51.   -ACREDENTIALS   用戶HTTP驗(yàn)證的用戶名和密碼,例如username:password 
  52.  
  53.   -UUSERAGENT    設(shè)置用戶代理 
  54.  
  55.   -tTIMEOUT       分析一個(gè)頁(yè)面最長(zhǎng)可用時(shí)間(默認(rèn)300) 
  56.  
  57.  -S               跳過(guò)初始url檢測(cè) 
  58.  
  59.  -G               分組query_string參數(shù) 
  60.  
  61.  -N               不使用標(biāo)準(zhǔn)化URL路徑 (保留../../) 
  62.  
  63.  -R               最大重定向數(shù)量 (默認(rèn)10) 
  64.  
  65.  -I               忽略robots.txt 

四、htcap簡(jiǎn)單介紹

htcap的掃描過(guò)程分為兩步,htcap首先會(huì)盡可能地收集待測(cè)目標(biāo)可以發(fā)送的請(qǐng)求,例如url、表單和AJAX請(qǐng)求等等,然后將收集到的請(qǐng)求保存到一個(gè)SQLite數(shù)據(jù)庫(kù)中。爬取工作完成之后,我們就可以使用其他的安全掃描工具來(lái)測(cè)試這些搜集到的測(cè)試點(diǎn),最后將掃描結(jié)果存儲(chǔ)到剛才那個(gè)SQLite數(shù)據(jù)庫(kù)之中。

htcap內(nèi)置了sqlmap和arachni模塊,sqlmap主要用來(lái)掃描SQL注入漏洞,而arachni可以發(fā)現(xiàn)XSS、XXE、代碼執(zhí)行和文件包含等漏洞。

htcap所采用的爬蟲(chóng)算法能夠采用遞歸的方式爬取基于AJAX的頁(yè)面,htcap可以捕獲AJAX調(diào)用,然后映射出DOM結(jié)構(gòu)的變化,并對(duì)新增的對(duì)象進(jìn)行遞歸掃描。當(dāng)htcap加載了一個(gè)測(cè)試頁(yè)面之后,htcap會(huì)嘗試通過(guò)觸發(fā)所有的事件和填充輸入值來(lái)觸發(fā)AJAX調(diào)用請(qǐng)求,當(dāng)htcap檢測(cè)到了AJAX調(diào)用之后,htcap會(huì)等待請(qǐng)求和相關(guān)調(diào)用完成。如果之后頁(yè)面的DOM結(jié)構(gòu)發(fā)生了變化,htcap便會(huì)用相同算法對(duì)新增元素再次進(jìn)行計(jì)算和爬取,直到觸發(fā)了所有的AJAX調(diào)用為止。

1. 爬蟲(chóng)模塊

Htcap支持三種爬取模式:被動(dòng)型、主動(dòng)型和攻擊型。在被動(dòng)模式下,htcap不會(huì)與任何頁(yè)面進(jìn)行交互,這意味著爬蟲(chóng)不會(huì)觸發(fā)任何頁(yè)面事件,它只會(huì)收集頁(yè)面現(xiàn)有的鏈接。在這個(gè)模式下,htcap就跟普通的Web爬蟲(chóng)一樣,只會(huì)收集頁(yè)面標(biāo)簽中的鏈接。在主動(dòng)模式下,htcap會(huì)觸發(fā)所有發(fā)現(xiàn)的事件,相當(dāng)于模擬用戶與頁(yè)面進(jìn)行交互,但不填寫任何表單數(shù)據(jù)。在攻擊模式下,htcap會(huì)向所有掃描到的表單和輸入框中填寫測(cè)試數(shù)據(jù),即盡可能地模擬用戶與頁(yè)面進(jìn)行交互。

2. 爬取范圍

htcap可以指定爬取范圍,可選范圍包括:域名、目錄和url。如果范圍是域名的話,htcap只會(huì)爬取給定的域名地址;如果范圍為目錄,那么htcap將會(huì)爬取指定目錄以及該目錄下的所有子目錄;如果設(shè)置的是url,那么htcap將只會(huì)分析單個(gè)頁(yè)面。


本文題目:htcap:一款實(shí)用的遞歸型Web漏洞掃描工具
網(wǎng)頁(yè)網(wǎng)址:http://m.5511xx.com/article/copjjcd.html