新聞中心
[[402645]]
本文轉載自微信公眾號「解Bug之路」,作者alchemystarlzy。轉載本文請聯系解Bug之路公眾號。

創(chuàng)新互聯專注于企業(yè)全網營銷推廣、網站重做改版、景谷網站定制設計、自適應品牌網站建設、H5響應式網站、商城網站建設、集團公司官網建設、外貿網站建設、高端網站制作、響應式網頁設計等建站業(yè)務,價格優(yōu)惠性價比高,為景谷等各大城市提供網站開發(fā)制作服務。
前言
最近解決了個比較棘手的問題,由于排查過程挺有意思,于是就以此為素材寫出了本篇文章。
Bug現場
這是一個偶發(fā)的性能問題。在每天幾百萬比交易請求中,平均耗時大約為300ms,但總有那么100多筆會超過1s,讓我們業(yè)務耗時監(jiān)控的99.99線變得很尷尬。如下圖所示:
為了精益求精,更為了消除這個尷尬的指標,筆者開始探尋起這100多慢請求筆的原因。
先找一筆看看
由于筆者寫的框架預留了traceId,所以找到這筆請求的整個調用的鏈路還是非常簡單的。而且通過框架中的攔截器在性能日志中算出了每一筆請求的耗時。這樣,非常便于分析鏈路到底是在哪邊耗時了。性能日志中的某個例子如下圖所示:
- 2020-09-01 15:06:59.010 [abcdefg,A->B,Dubbo-thread-1,ipA->ipB] B.facade,cost 10 ms
拉出來一整條調用鏈路后,發(fā)現最前面的B系統(tǒng)調用C系統(tǒng)就比較慢。后面鏈路還有幾個調用慢的,那先不管三七二十一,先分析B調用C系統(tǒng)吧。
我們從監(jiān)控系統(tǒng)看出來正常的B系統(tǒng)調用C系統(tǒng)平均耗時只有20ms,這次的耗時增長了10倍!
正常思路,那當然是C系統(tǒng)有問題么,畢竟慢了10倍!去C系統(tǒng)的性能日志里面看看,
- 2020-09-01 15:06:59.210 [abcdefg,B->C,Dubbo-thread-1,ipB->ipC] C.facade,cost 20 ms
啪啪啪打臉,竟然只有20ms,和平均耗時差不多。難道問題在網絡上?B到C之間由于丟包重傳所以到了200ms?
甩給網絡?
由于筆者對TCP協議還是比較了解的,tcp第一次丟包重傳是200ms,那么加上C處理的時間20ms,即220ms必須得大于200ms。而由于Nagle和DelayAck造成的tcp延遲也僅僅是40ms,兩者相加60ms遠遠小于200ms,所以這個200ms是丟包或者DelayAck的概率不大。
本著萬一呢的態(tài)度,畢竟下絕對的判斷往往會被打臉,看了下我們的監(jiān)控系統(tǒng),發(fā)現當時流量距離網卡容量只有1/10左右,距離打滿網卡還有非常遠的距離。
注意,這個監(jiān)控的是由KVM虛擬機虛擬出來的網卡。看了這個流量,筆者感覺網絡上問題的概率不大。
GC了?
筆者第二個想到的是GC了,但是觀察了B和C的當時時刻的GC日志,非常正常,沒有FullGC,youngGC也在毫秒級,完全不會有200ms這么長。TCP重傳+雙方都youngGC?這個也太巧了點吧,也不是不可用。不過詳細的計算了時間點,并納入了雙方機器的時鐘誤差后,發(fā)現基本不可能。
再看看其它幾筆
盡然這個問題每天有100多筆(當然了,也不排除其中混雜了其它不同的問題),那么就試試看看其它幾筆,有沒有什么共性。這一看,發(fā)現個奇怪的現象,就是有時候是A調用B慢,有時候是B調用C慢,還有時候是E調用F慢。他們唯一的共性就是耗時變長了,但是這個耗時增加的比例有5倍的,有10倍的,完全沒有規(guī)律可循。
這不禁讓筆者陷入了沉思。
尋找突破點
既然通用規(guī)律只有變慢,暫時無法進一步挖掘。那么還是去B系統(tǒng)上去看看情況吧,去對應B系統(tǒng)上故意不用grep而是用less看了下,上下掃了兩眼。突然發(fā)現,貌似緊鄰著的幾條請求都很慢,而且是無差別變慢!也就是說B系統(tǒng)調用任何系統(tǒng)在這個時間點都有好幾倍甚至十幾倍的耗時!
終于找到了一個突破點,B系統(tǒng)本身或者其所屬的環(huán)境應該有問題!于是筆者用awk統(tǒng)計了下 B系統(tǒng)這個小時內每分鐘的平均調用時長,用了下面這條命令:
- cat 性能日志 | grep '時間點 | awk -F ' ' '{print $2, $5}' |.......| awk -F ' ' '{sum[$1]+=$3;count[$1]+=1}END{for(i in sum) {print i,sum[i]/count[i]}}'
發(fā)現
- 15:00 20
- 15:01 21
- 15:02 15
- 15:03 30
- .......
- 15:06 172.4
- 15:07 252.4
- 15:08 181.4
- 15:10 20
- 15:10 21
- 15:10 22
在15:06-15:08這三分鐘之內,調用時間會暴漲!但奇怪的是B系統(tǒng)明明有幾十臺機器,只有這一臺在這個時間段內會暴漲。難道這個時間有定時任務?筆者搜索了下B系統(tǒng)昨天的日志,發(fā)現在同樣的時間段內,還是暴漲了!再接著搜索其它調用慢的,例如E->F,發(fā)現他們也在15:06-15:08報錯!于是筆者,一橫心,直接用awk算出了所有系統(tǒng)間調用慢機器白天內的所有分鐘平均耗時(晚上的流量小不計入內),發(fā)現:
所有調用慢的機器,都非常巧的在每個小時06-08分鐘之內調用慢。再觀察下慢的請求,發(fā)現他們也全部是分布在不同小時的06-08分時間段內!
定時任務?
第一反應是有定時任務,查了下所有調用機器的crontab沒有問題。問了下對應的開發(fā)有沒有調度,沒有調度,而且那個時間段由于耗時的原因,每秒請求數反而變小了。翻了下機器監(jiān)控,也都挺正常。思維陷入了僵局,突然筆者靈光一閃,我們的應用全部是在KVM虛擬機上,會不會是宿主機出了問題。于是聯系了下SA,看看這些機器的宿主機是個什么情況。
每個變慢的機器的宿主機都有Redis!
這一看就發(fā)現規(guī)律了,原來變慢的機器上都和Redis共宿主機!
登陸上對應的Redis服務器,發(fā)現CPU果然在那個時間點有尖峰。而這點尖峰對整個宿主機的CPU毫無影響(畢竟宿主機有64個核)。crontab -l 一下,果然有定時任務,腳本名為Backup!它起始時間點就是從06分開始往GlusterFS盤進行備份,從06分開始CPU使用率開始上升=>07分達到頂峰=>08分降下來,和耗時曲線完全一致!
原來Redis往Gluster盤備份占據了大量的IO操作,所以導致宿主機上的其它應用做IO操作時會變得很慢,進而導致但凡是這個備份時間內系統(tǒng)間調用的平均耗時都會暴漲接近10倍,最終導致了高耗時的請求。
為什么調用請求超時1s的概率這么低
由于我們線上每個應用都有幾十臺機器,而基本每次調用只有幾十毫秒。所以只有這個請求連續(xù)落到三個甚至多個和Redis共宿主機的系統(tǒng)里面才會導致請求超過1s,這樣才能被我們的統(tǒng)計腳本監(jiān)測到,而那些大量的正常請求完全拉平了平均值。
解決方案
我們將線上實時鏈路的系統(tǒng)從對應有Redis的宿主機中遷移出來,再也沒有那個尷尬的1s了。
總結
在遇到問題,并且思路陷入僵局時,可以通過一些腳本工具,例如grep以及awk或者其它一些工具對眾多日志進行分析,不停的去尋找規(guī)律,從無序中找到有序,往往能夠產生意想不到的效果!
本文標題:解Bug之路-記一次線上請求偶爾變慢的排查
URL分享:http://m.5511xx.com/article/dhpchsg.html


咨詢
建站咨詢
