日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
Linux操作系統(tǒng)遇到大IO操作時內(nèi)核卡死原因分析(linux大io內(nèi)核卡死)

作為一種自由和開源的操作系統(tǒng),Linux已經(jīng)成為了眾多開發(fā)者和企業(yè)的選擇,它的可靠性和穩(wěn)定性在很大程度上得到了驗證。然而,與所有操作系統(tǒng)一樣,Linux也會遇到一些困難和挑戰(zhàn)。在本文中,我們將探討Linux操作系統(tǒng)遇到大IO操作時內(nèi)核卡死的原因,并且尋找解決問題的方法。

什么是大IO操作?

在計算機領域,IO是指輸入和輸出,通常涉及數(shù)據(jù)的讀取和寫入,例如,打開文件,讀取文件或網(wǎng)絡通信。由于IO操作涉及慢速設備(磁盤驅(qū)動器、網(wǎng)絡連接等),因此,在執(zhí)行IO操作時,操作系統(tǒng)必須等待設備完成操作,然后才能將數(shù)據(jù)傳送到CPU中進行處理。

當IO請求過多時,CPU必須在不同的IO請求之間進行切換。這通常稱為上下文切換。在大I/O負載下,上下文切換的數(shù)量變得非常龐大,這可能導致操作系統(tǒng)變慢,響應時間變長或系統(tǒng)崩潰。

為什么會出現(xiàn)內(nèi)核卡死?

內(nèi)核卡死指的是操作系統(tǒng)內(nèi)核變得無響應,不再執(zhí)行任何命令或操作。 當內(nèi)核無響應時,系統(tǒng)上的任何任務、進程或應用程序都無法響應,這往往會導致系統(tǒng)的死機或崩潰。 當Linux操作系統(tǒng)遇到大IO操作時,可能會出現(xiàn)內(nèi)核卡死的情況。

原因分析

硬盤故障

在一個極端的情況下,磁盤驅(qū)動器中出現(xiàn)問題可能會導致內(nèi)核卡死,甚至在系統(tǒng)加載過程中就不能引導。 我們可以通過查看系統(tǒng)日志來確定磁盤驅(qū)動器是否出現(xiàn)了某些錯誤。 如果您的磁盤驅(qū)動器出現(xiàn)錯誤,則應該立即停止使用,并進行更換或維修。

內(nèi)存故障

內(nèi)存故障可能導致內(nèi)核卡死。 當系統(tǒng)內(nèi)存出現(xiàn)問題時,可能會導致內(nèi)核出現(xiàn)錯誤或崩潰。 如果您的系統(tǒng)無法響應,您可以嘗試使用MemTest86等工具來測試系統(tǒng)內(nèi)存。 如果測試結(jié)果顯示有錯誤,則需要更換或修復系統(tǒng)內(nèi)存。

驅(qū)動問題

驅(qū)動程序問題可能導致內(nèi)核卡死。 如果機器上的一個驅(qū)動程序存在問題,它可能會干擾其他的驅(qū)動程序 或者內(nèi)核的正常運行。 這可能會導致系統(tǒng)不確定崩潰 或出現(xiàn)無法選定的情況,從而導致操作系統(tǒng)無法響應。

大量IO操作

如前所述,在大量IO負載下,可能會發(fā)生內(nèi)核卡死現(xiàn)象。這主要是因為在執(zhí)行IO操作時,操作系統(tǒng)必須等待設備完成操作,然后才能將數(shù)據(jù)傳送到CPU中進行處理。這會導致上下文切換數(shù)量大幅增加,從而可能會導致系統(tǒng)崩潰。

解決方法

硬件檢測

如果硬件故障導致內(nèi)核卡死,那么硬件檢測是之一步。 您可以使用MemTest86等工具來測試系統(tǒng)內(nèi)存,或者使用ART等工具來檢測磁盤驅(qū)動器是否存在問題。 如果有硬件故障,則需要盡快更換或維修。

升級內(nèi)核

如果內(nèi)核版本太老,可能會出現(xiàn)內(nèi)核卡死的問題。 在這種情況下,升級內(nèi)核是一個好的解決方法。 升級內(nèi)核可以解決系統(tǒng)中的一些錯誤和安全問題,提高系統(tǒng)性能。

優(yōu)化I/O調(diào)度程序

Linux內(nèi)核有幾個I/O調(diào)度程序可供選擇,例如CFQ , NOOP , DEADLINE等。 每個調(diào)度程序都有自己的優(yōu)缺點。 單個調(diào)度程序不會適用于所有情況。 選擇不合適的調(diào)度程序可能會導致系統(tǒng)響應遲緩。 因此,優(yōu)化I/O調(diào)度程序可能會有所幫助。

調(diào)整文件系統(tǒng)相關參數(shù)

文件系統(tǒng)相關參數(shù)是影響硬盤I/O性能的重要因素之一。 通過調(diào)整文件系統(tǒng)參數(shù),可以提高硬盤I/O性能,從而減少可能的內(nèi)核卡死現(xiàn)象。 例如,調(diào)整文件系統(tǒng)緩存大小和進程文件限制等參數(shù)可能會對性能產(chǎn)生積極影響。

當Linux操作系統(tǒng)遇到大I/O負載時,內(nèi)核卡死的情況是很常見的。 這可能是由于硬件故障、內(nèi)存故障、驅(qū)動程序問題或大量I/O操作等因素導致的。 針對不同原因可以采取不同的解決方法,例如硬件檢測,升級內(nèi)核,優(yōu)化I/O調(diào)度程序等。 維護好Linux操作系統(tǒng)所需要的多方面的知識和技能,將對操作系統(tǒng)的穩(wěn)定性和應用程序的可靠性產(chǎn)生積極作用。

相關問題拓展閱讀:

  • Linux 磁盤IO

Linux 磁盤IO

磁盤結(jié)構(gòu)與數(shù)據(jù)存儲方式, 數(shù)據(jù)是如何存儲的,又通過怎樣的方式被訪問?

機械硬盤主要由磁盤盤片、磁頭、主軸與傳動軸等組成;數(shù)據(jù)就存放在磁盤盤片中

現(xiàn)代硬盤尋道都是采用CHS( Cylinder Head Sector )的方式,硬盤讀取數(shù)據(jù)時,讀寫磁頭沿徑向移動,移到要讀取的扇區(qū)所在磁道的上方,這段時間稱為

尋道時間(seek time)

因讀寫磁頭的起始位置與目標位置之間的距離不同,尋道時間也不同

。磁頭到達指定磁道后,然后通過盤片的旋轉(zhuǎn),使得要讀取的扇區(qū)轉(zhuǎn)到讀寫磁頭的下方,這段時間稱為

旋轉(zhuǎn)延遲時間(rotational latencytime)

。然后再讀寫數(shù)據(jù),讀手租寫數(shù)據(jù)也需要時間,這段時間稱為

傳輸時間(transfer time)

。

固態(tài)硬盤主要由主控芯片、閃存顆粒與緩存組成;數(shù)據(jù)就存放在閃存芯片中

通過主控芯片進行尋址, 因為畢好兆是電信號方式, 沒有任何物理結(jié)構(gòu), 所以尋址速度非常快且與數(shù)據(jù)存儲位置無關

如何查看系統(tǒng)IO狀態(tài)

查看磁盤空間

調(diào)用 open , fwrite 時到底發(fā)生了什么?

在一個IO過程中,以下5個API/系統(tǒng)調(diào)用是必不可少的

Create 函數(shù)用來打開一個文件,如果該文件不存在,那么需要在磁盤上創(chuàng)建該文件

Open 函數(shù)用于打開一個指定的文件。如果在 Open 函數(shù)中指定 O_CREATE 標記,那么 Open 函數(shù)同樣可以實現(xiàn) Create 函數(shù)的功能

Clos e函數(shù)用于釋放文件句柄

Write 和 Read 函數(shù)用于實現(xiàn)文件的讀寫過程

O_SYNC (先寫緩存, 但是需要實際落襪粗盤之后才返回, 如果接下來有讀請求, 可以從內(nèi)存讀 ), write-through

O_DSYNC (D=data, 類似O_SYNC, 但是只同步數(shù)據(jù), 不同步元數(shù)據(jù))

O_DIRECT (直接寫盤, 不經(jīng)過緩存)

O_ASYNC (異步IO, 使用信號機制實現(xiàn), 不推薦, 直接用aio_xxx)

O_NOATIME (讀取的時候不更新文件 atime(access time))

sync() 全局緩存寫回磁盤

fsync() 特定fd的sync()

fdatasync() 只刷數(shù)據(jù), 不同步元數(shù)據(jù)

mount noatime(全局不記錄atime), re方式(只讀), sync(同步方式)

一個IO的傳奇一生 這里有一篇非常好的資料,講述了整個IO過程;

下面簡單記錄下自己的理解的一次常見的Linux IO過程, 想了解更詳細及相關源碼,非常推薦閱讀上面的原文

Linux IO體系結(jié)構(gòu)

Superblock

超級描述了整個文件系統(tǒng)的信息。為了保證可靠性,可以在每個塊組中對superblock進行備份。為了避免superblock冗余過多,可以采用稀疏存儲的方式,即在若干個塊組中對superblock進行保存,而不需要在所有的塊組中都進行備份

GDT 組描述符表

組描述符表對整個組內(nèi)的數(shù)據(jù)布局進行了描述。例如,數(shù)據(jù)塊位圖的起始地址是多少?inode位圖的起始地址是多少?inode表的起始地址是多少?塊組中還有多少空閑塊資源等。組描述符表在superblock的后面

數(shù)據(jù)塊位圖

數(shù)據(jù)塊位圖描述了塊組內(nèi)數(shù)據(jù)塊的使用情況。如果該數(shù)據(jù)塊已經(jīng)被某個文件使用,那么位圖中的對應位會被置1,否則該位為0

Inode位圖

Inode位圖描述了塊組內(nèi)inode資源使用情況。如果一個inode資源已經(jīng)使用,那么對應位會被置1

Inode表

(即inode資源)和數(shù)據(jù)塊。這兩塊占據(jù)了塊組內(nèi)的絕大部分空間,特別是數(shù)據(jù)塊資源

一個文件是由inode進行描述的。一個文件占用的數(shù)據(jù)塊block是通過inode管理起來的

。在inode結(jié)構(gòu)中保存了直接塊指針、一級間接塊指針、二級間接塊指針和三級間接塊指針。對于一個小文件,直接可以采用直接塊指針實現(xiàn)對文件塊的訪問;對于一個大文件,需要采用間接塊指針實現(xiàn)對文件塊的訪問

最簡單的調(diào)度器。它本質(zhì)上就是一個鏈表實現(xiàn)的

fifo

隊列,并對請求進行簡單的

合并

處理。

調(diào)度器本身并沒有提供任何可以配置的參數(shù)

讀寫請求被分成了兩個隊列, 一個用訪問地址作為索引,一個用進入時間作為索引,并且采用兩種方式將這些request管理起來;

在請求處理的過程中,deadline算法會優(yōu)先處理那些訪問地址臨近的請求,這樣可以更大程度的減少磁盤抖動的可能性。

只有在有些request即將被餓死的時候,或者沒有辦法進行磁盤順序化操作的時候,deadline才會放棄地址優(yōu)先策略,轉(zhuǎn)而處理那些即將被餓死的request

deadline算法可調(diào)整參數(shù)

read_expire

: 讀請求的超時時間設置(ms)。當一個讀請求入隊deadline的時候,其過期時間將被設置為當前時間+read_expire,并放倒fifo_list中進行排序

write_expire

:寫請求的超時時間設置(ms)

fifo_batch

:在順序(sort_list)請求進行處理的時候,deadline將以batch為單位進行處理。每一個batch處理的請求個數(shù)為這個參數(shù)所限制的個數(shù)。在一個batch處理的過程中,不會產(chǎn)生是否超時的檢查,也就不會產(chǎn)生額外的磁盤尋道時間。這個參數(shù)可以用來平衡順序處理和饑餓時間的矛盾,當饑餓時間需要盡可能的符合預期的時候,我們可以調(diào)小這個值,以便盡可能多的檢查是否有饑餓產(chǎn)生并及時處理。增大這個值當然也會增大吞吐量,但是會導致處理饑餓請求的延時變長

writes_starved

:這個值是在上述deadline出隊處理之一步時做檢查用的。用來判斷當讀隊列不為空時,寫隊列的饑餓程度是否足夠高,以時deadline放棄讀請求的處理而處理寫請求。當檢查存在有寫請求的時候,deadline并不會立即對寫請求進行處理,而是給相關數(shù)據(jù)結(jié)構(gòu)中的starved進行累計,如果這是之一次檢查到有寫請求進行處理,那么這個計數(shù)就為1。如果此時writes_starved值為2,則我們認為此時饑餓程度還不足夠高,所以繼續(xù)處理讀請求。只有當starved >= writes_starved的時候,deadline才回去處理寫請求。可以認為這個值是用來平衡deadline對讀寫請求處理優(yōu)先級狀態(tài)的,這個值越大,則寫請求越被滯后處理,越小,寫請求就越可以獲得趨近于讀請求的優(yōu)先級

front_merges

:當一個新請求進入隊列的時候,如果其請求的扇區(qū)距離當前扇區(qū)很近,那么它就是可以被合并處理的。而這個合并可能有兩種情況,一個是向當前位置后合并,另一種是向前合并。在某些場景下,向前合并是不必要的,那么我們就可以通過這個參數(shù)關閉向前合并。默認deadline支持向前合并,設置為0關閉

在調(diào)度一個request時,首先需要選擇一個一個合適的cfq_group。Cfq調(diào)度器會為每個cfq_group分配一個時間片,當這個時間片耗盡之后,會選擇下一個cfq_group。每個cfq_group都會分配一個vdisktime,并且通過該值采用紅黑樹對cfq_group進行排序。在調(diào)度的過程中,每次都會選擇一個vdisktime最小的cfq_group進行處理。

一個cfq_group管理了7棵service tree,每棵service tree管理了需要調(diào)度處理的對象cfq_queue。因此,一旦cfq_group被選定之后,需要選擇一棵service tree進行處理。這7棵service tree被分成了三大類,分別為RT、BE和IDLE。這三大類service tree的調(diào)度是按照優(yōu)先級展開的

通過優(yōu)先級可以很容易的選定一類Service tree。當一類service tree被選定之后,采用service time的方式選定一個合適的cfq_queue。每個Service tree是一棵紅黑樹,這些紅黑樹是按照service time進行檢索的,每個cfq_queue都會維護自己的service time。分析到這里,我們知道,cfq算法通過每個cfq_group的vdisktime值來選定一個cfq_group進行服務,在處理cfq_group的過程通過優(yōu)先級選擇一個最需要服務的service tree。通過該Service tree得到最需要服務的cfq_queue。該過程在 cfq_select_queue 函數(shù)中實現(xiàn)

一個cfq_queue被選定之后,后面的過程和deadline算法有點類似。在選擇request的時候需要考慮每個request的延遲等待時間,選擇那種等待時間最長的request進行處理。但是,考慮到磁盤抖動的問題,cfq在處理的時候也會進行順序批量處理,即將那些在磁盤上連續(xù)的request批量處理掉

cfq調(diào)度算法的參數(shù)

back_seek_max

:磁頭可以向后尋址的更大范圍,默認值為16M

back_seek_penalty

:向后尋址的懲罰系數(shù)。這個值是跟向前尋址進行比較的

fifo_expire_async

:設置異步請求的超時時間。同步請求和異步請求是區(qū)分不同隊列處理的,cfq在調(diào)度的時候一般情況都會優(yōu)先處理同步請求,之后再處理異步請求,除非異步請求符合上述合并處理的條件限制范圍內(nèi)。當本進程的隊列被調(diào)度時,cfq會優(yōu)先檢查是否有異步請求超時,就是超過fifo_expire_async參數(shù)的限制。如果有,則優(yōu)先發(fā)送一個超時的請求,其余請求仍然按照優(yōu)先級以及扇區(qū)編號大小來處理

fifo_expire_sync

:這個參數(shù)跟上面的類似,區(qū)別是用來設置同步請求的超時時間

slice_idle

:參數(shù)設置了一個等待時間。這讓cfq在切換cfq_queue或service tree的時候等待一段時間,目的是提高機械硬盤的吞吐量。一般情況下,來自同一個cfq_queue或者service tree的IO請求的尋址局部性更好,所以這樣可以減少磁盤的尋址次數(shù)。這個值在機械硬盤上默認為非零。當然在固態(tài)硬盤或者硬RAID設備上設置這個值為非零會降低存儲的效率,因為固態(tài)硬盤沒有磁頭尋址這個概念,所以在這樣的設備上應該設置為0,關閉此功能

group_idle

:這個參數(shù)也跟上一個參數(shù)類似,區(qū)別是當cfq要切換cfq_group的時候會等待一段時間。在cgroup的場景下,如果我們沿用slice_idle的方式,那么空轉(zhuǎn)等待可能會在cgroup組內(nèi)每個進程的cfq_queue切換時發(fā)生。這樣會如果這個進程一直有請求要處理的話,那么直到這個cgroup的配額被耗盡,同組中的其它進程也可能無法被調(diào)度到。這樣會導致同組中的其它進程餓死而產(chǎn)生IO性能瓶頸。在這種情況下,我們可以將slice_idle = 0而group_idle = 8。這樣空轉(zhuǎn)等待就是以cgroup為單位進行的,而不是以cfq_queue的進程為單位進行,以防止上述問題產(chǎn)生

low_latency

:這個是用來開啟或關閉cfq的低延時(low latency)模式的開關。當這個開關打開時,cfq將會根據(jù)target_latency的參數(shù)設置來對每一個進程的分片時間(slice time)進行重新計算。這將有利于對吞吐量的公平(默認是對時間片分配的公平)。關閉這個參數(shù)(設置為0)將忽略target_latency的值。這將使系統(tǒng)中的進程完全按照時間片方式進行IO資源分配。這個開關默認是打開的

target_latency

:當low_latency的值為開啟狀態(tài)時,cfq將根據(jù)這個值重新計算每個進程分配的IO時間片長度

quantum

:這個參數(shù)用來設置每次從cfq_queue中處理多少個IO請求。在一個隊列處理事件周期中,超過這個數(shù)字的IO請求將不會被處理。這個參數(shù)只對同步的請求有效

slice_sync

:當一個cfq_queue隊列被調(diào)度處理時,它可以被分配的處理總時間是通過這個值來作為一個計算參數(shù)指定的。公式為: time_slice = slice_sync + (slice_sync/5 * (4 – prio)) 這個參數(shù)對同步請求有效

slice_async

:這個值跟上一個類似,區(qū)別是對異步請求有效

slice_async_rq

:這個參數(shù)用來限制在一個slice的時間范圍內(nèi),一個隊列最多可以處理的異步請求個數(shù)。請求被處理的更大個數(shù)還跟相關進程被設置的io優(yōu)先級有關

通常在Linux上使用的IO接口是同步方式的,進程調(diào)用 write / read 之后會阻塞陷入到內(nèi)核態(tài),直到本次IO過程完成之后,才能繼續(xù)執(zhí)行,下面介紹的異步IO則沒有這種限制,但是當前Linux異步IO尚未成熟

目前Linux aio還處于較不成熟的階段,只能在 O_DIRECT 方式下才能使用(glibc_aio),也就是無法使用默認的Page Cache機制

正常情況下,使用aio族接口的簡要方式如下:

io_uring 是 2023 年 5 月發(fā)布的 Linux 5.1 加入的一個重大特性 —— Linux 下的全新的異步 I/O 支持,希望能徹底解決長期以來 Linux AIO 的各種不足

io_uring 實現(xiàn)異步 I/O 的方式其實是一個生產(chǎn)者-消費者模型:

邏輯卷管理

RAID0

RAID1

RAID5(糾錯)

條帶化

Linux系統(tǒng)性能調(diào)整:IO過程

Linux的IO調(diào)度

一個IO的傳奇一生

理解inode

Linux 文件系統(tǒng)是怎么工作的?

Linux中Buffer cache性能問題一探究竟

Asynchronous I/O and event notification on linux

AIO 的新歸宿:io_uring

linux大io內(nèi)核卡死的介紹就聊到這里吧,感謝你花時間閱讀本站內(nèi)容,更多關于linux大io內(nèi)核卡死,Linux操作系統(tǒng)遇到大IO操作時內(nèi)核卡死原因分析,Linux 磁盤IO的信息別忘了在本站進行查找喔。

香港服務器選創(chuàng)新互聯(lián),2H2G首月10元開通。
創(chuàng)新互聯(lián)(www.cdcxhl.com)互聯(lián)網(wǎng)服務提供商,擁有超過10年的服務器租用、服務器托管、云服務器、虛擬主機、網(wǎng)站系統(tǒng)開發(fā)經(jīng)驗。專業(yè)提供云主機、虛擬主機、域名注冊、VPS主機、云服務器、香港云服務器、免備案服務器等。


本文題目:Linux操作系統(tǒng)遇到大IO操作時內(nèi)核卡死原因分析(linux大io內(nèi)核卡死)
標題URL:http://m.5511xx.com/article/dhiceie.html