免费高清特黄a大片,九一h片在线免费看,a免费国产一级特黄aa大,国产精品国产主播在线观看,成人精品一区久久久久,一级特黄aa大片,俄罗斯无遮挡一级毛片

分享

3.1.3 存儲(chǔ)性能指標(biāo)

 langhuayipian 2012-03-19

3.1.3  存儲(chǔ)性能指標(biāo)

3.1.3.1  存儲(chǔ)性能指標(biāo):IOPS和帶寬(throughput)

SAN和NAS存儲(chǔ)一般都具備兩個(gè)評(píng)價(jià)指標(biāo):IOPS和帶寬(throughput),兩個(gè)指標(biāo)互相獨(dú)立又相互關(guān)聯(lián)。體現(xiàn)存儲(chǔ)系統(tǒng)性能的最主要指標(biāo)是IOPS。

IOPS(I/Os per second):每秒輸入輸出次數(shù)。指的是系統(tǒng)在單位時(shí)間內(nèi)能處理的最大的I/O頻度。一般,聯(lián)機(jī)事務(wù)處理(OLTP)應(yīng)用涉及更多的頻繁讀寫,更多地考慮IOPS。

IOPS測(cè)試結(jié)果與很多測(cè)試參數(shù)和存儲(chǔ)系統(tǒng)的具體配置有關(guān)。IOPS還可以細(xì)分為100%順序讀(Sequential Read)IOPS、100%順序?qū)慖OPS、100%隨機(jī)讀IOPS、100%隨機(jī)寫IOPS等,在同等情況下這4種IOPS中100%順序讀的 IOPS最高。

廠商公布的經(jīng)常是100%順序讀的IOPS指標(biāo),但多數(shù)用戶實(shí)際使用的環(huán)境既有順序讀寫也有隨機(jī)讀寫操作,傳輸數(shù)據(jù)塊尺寸大小都有,所以產(chǎn)品在用戶實(shí)際使用環(huán)境中的性能自然就比標(biāo)注的指標(biāo)差。

較權(quán)威的存儲(chǔ)性能基準(zhǔn)測(cè)試有SPC和SPC-1 IOPS?。

SPC(Storage Performance Council)即存儲(chǔ)性能理事會(huì)。SPC的SPC-1基準(zhǔn)測(cè)試主要是針對(duì)隨機(jī)I/O應(yīng)用環(huán)境的,SPC-2基準(zhǔn)測(cè)試主要是針對(duì)順序I/O應(yīng)用環(huán)境的。 SPC-1基準(zhǔn)測(cè)試很好地模擬了OLTP、數(shù)據(jù)庫(kù)和E-mail等真實(shí)應(yīng)用環(huán)境,使SPC-1基準(zhǔn)測(cè)試結(jié)果具有很高權(quán)威性和可比性。

SPC-1基準(zhǔn)測(cè)試雖然規(guī)定了嚴(yán)格的順序和隨機(jī)讀寫比例和數(shù)據(jù)塊尺寸以及在何種磁盤負(fù)載情況下取值,但沒(méi)有規(guī)定被測(cè)存儲(chǔ)產(chǎn)品使用多少個(gè)磁盤,也沒(méi)有規(guī)定被測(cè)存儲(chǔ)產(chǎn)品設(shè)置何種RAID級(jí)別。好在存儲(chǔ)性能理事會(huì)(SPC)要求測(cè)試報(bào)告必須詳細(xì)地列出被測(cè)存儲(chǔ)系統(tǒng)的配置和價(jià)格。

SPC網(wǎng)站(http://www./results)上公布了大多數(shù)存儲(chǔ)廠商存儲(chǔ)產(chǎn)品的SPC-1基準(zhǔn)測(cè)試報(bào)告,通過(guò)查詢這些報(bào)告中的SPC-1 IOPS?值和測(cè)試報(bào)告中所描述的被測(cè)存儲(chǔ)產(chǎn)品的磁盤總數(shù),用戶就可以根據(jù)下列公式快速估算所采購(gòu)配置的某一存儲(chǔ)產(chǎn)品實(shí)際性能和可靠性。

實(shí)際性能(實(shí)際SPC-1 IOPS?)= [實(shí)際采購(gòu)存儲(chǔ)系統(tǒng)的磁盤數(shù) / 測(cè)試報(bào)告中被測(cè)系統(tǒng)的磁盤數(shù)]×測(cè)試報(bào)告的SPC-1 IOPS?。

可靠性:MTTFarray=MTTFdisk / 實(shí)際采購(gòu)存儲(chǔ)系統(tǒng)的磁盤數(shù)。

throughput:指的是單位時(shí)間內(nèi)最大的I/O流量;訪問(wèn)一些大量的順序文件,例如流媒體,更多的考慮throughput指標(biāo)。

帶寬決定于整個(gè)陣列系統(tǒng),與所配置的磁盤個(gè)數(shù)也有一定關(guān)系;而IOPS則基本由陣列控制器決定。在Web、E-mail、數(shù)據(jù)庫(kù)等小文件頻繁讀寫的 環(huán)境下,性能主要由IOPS決定。在視頻、測(cè)繪等大文件連續(xù)讀寫的環(huán)境下,性能主要由帶寬決定。可見(jiàn),在不同的應(yīng)用方式中,需要考察的側(cè)重點(diǎn)也不同。對(duì) NAS產(chǎn)品來(lái)說(shuō),主要性能指數(shù)也是兩個(gè),OPS和ORT,分別代表每秒可響應(yīng)的并發(fā)請(qǐng)求數(shù)和每個(gè)請(qǐng)求的平均反應(yīng)時(shí)間。對(duì)磁帶存儲(chǔ)設(shè)備來(lái)說(shuō),單個(gè)磁帶驅(qū)動(dòng)器 的讀寫速度是最重要的性能指標(biāo)。

3.1.3.2  硬盤性能指標(biāo)與高效I/O

轉(zhuǎn)速:當(dāng)前的服務(wù)器硬盤一般都是15000 r/min。

平均延時(shí):平均延時(shí)就是磁道上的某段數(shù)據(jù)轉(zhuǎn)到磁頭下面需要的時(shí)間,這直接由轉(zhuǎn)速?zèng)Q定。比如15000 r/min的硬盤,也就是每秒250 r,每轉(zhuǎn)一圈需要4ms,因此平均延時(shí)就是轉(zhuǎn)半圈的時(shí)間,等于2ms。

平均尋道時(shí)間:服務(wù)器硬盤一般平均尋道時(shí)間是4ms。

持續(xù)傳輸速率:服務(wù)器硬盤一般在80MB/s,也就是80KB/s(為了方便計(jì)算,單位都        用ms)。

因此,讀取一次數(shù)據(jù)需要的時(shí)間等于定位時(shí)間(平均延時(shí)2ms+尋道4ms)+數(shù)據(jù)傳送時(shí)間(要讀的數(shù)據(jù)/80k×ms)。

不同I/O的數(shù)據(jù)傳輸效率見(jiàn)表3-2。

表3-2  I/O大小與數(shù)據(jù)傳輸效率

3.1.4  RAID的I/O特性

3.1.4.1  同步和異步I/O

通常,使用比較多的I/O模型是同步I/O(Synchronous I/O)。在這種模式下,當(dāng)請(qǐng)求發(fā)出之后,應(yīng)用程序就會(huì)阻塞,直到請(qǐng)求滿足為止。這種模式最大好處就是調(diào)用應(yīng)用程序在等待 I/O 請(qǐng)求完成時(shí)不需要使用CPU資源。但是,對(duì)于一些強(qiáng)調(diào)高響應(yīng)速度的程序(如DB)來(lái)說(shuō),希望這種等待時(shí)間越短越好,這時(shí)就可以考慮采用異步 I/O(Asynchronous I/O)模式。異步I/O模式下,進(jìn)程發(fā)出I/O請(qǐng)求后無(wú)須等待I/O完成,就可以去處理其他事情;I/O請(qǐng)求被放入一個(gè)隊(duì)列中,一旦I/O完成,系統(tǒng)會(huì) 發(fā)出信號(hào)通知進(jìn)程。

異步I/O可以使需要大量寫的Oracle進(jìn)程(如DBWn進(jìn)程)將I/O請(qǐng)求隊(duì)列化,以充分利用硬件的I/O帶寬,從而使它們能最大程度實(shí)現(xiàn)并行 處理。異步I/O還可以使那些需要進(jìn)行大量計(jì)算的操作(如排序)在它們發(fā)出I/O請(qǐng)求前預(yù)先從磁盤取出數(shù)據(jù),以使I/O和計(jì)算并行處理。

確認(rèn)操作系統(tǒng)已經(jīng)設(shè)置支持異步I/O后,還需要設(shè)置Oracle初始化參數(shù)"DISK_ ASYNCH_I/O"為"true"以支持異步I/O。

I/O大小

定位時(shí)間/ms

傳送時(shí)間/ms

數(shù)據(jù)傳輸效率/傳送時(shí)間/總時(shí)間

8KB

6

0.1

1.6%

128KB

6

1.6

21%

512KB

6

6.4

52%

1MB

6

12.8

68%

2MB

6

25.6

81%

準(zhǔn)則:數(shù)據(jù)傳送時(shí)間 > 5*定位時(shí)間;換而言之,數(shù)據(jù)傳輸效率大于80%,否則大部分時(shí)間都用在"尋道定位"上顯然是不合算的。

(回想一下十年前的硬盤技術(shù):容量大約是1.2GB;轉(zhuǎn)速大約在5400 r/min;持續(xù)傳輸速率大約在10bps;平均尋道時(shí)間大約在15ms)。

硬盤的技術(shù)進(jìn)步帶給持續(xù)傳輸速率好處要遠(yuǎn)大于平均尋道時(shí)間的好處,因此越高級(jí)的硬盤,I/O大小要設(shè)定的越大才好。

3.1.4.2  負(fù)載均衡及條帶化

當(dāng)多個(gè)進(jìn)程同時(shí)訪問(wèn)一個(gè)磁盤時(shí),會(huì)出現(xiàn)磁盤沖突。大多數(shù)磁盤系統(tǒng)都對(duì)訪問(wèn)次數(shù)(每秒的I/O操作)和數(shù)據(jù)傳輸率(每秒傳輸?shù)臄?shù)據(jù)量)有限制。當(dāng)達(dá)到這些限制時(shí),后面訪問(wèn)磁盤的進(jìn)程就需要等待,這時(shí)就是所謂的磁盤沖突。

避免磁盤沖突是優(yōu)化I/O性能的一個(gè)目標(biāo),這就需要將一個(gè)熱點(diǎn)磁盤上的I/O訪問(wèn)負(fù)載分擔(dān)到其他可用磁盤上,也就是I/O負(fù)載均衡。在一些成熟的磁 盤負(fù)載均衡技術(shù)出現(xiàn)之前,DBA需要了解/預(yù)測(cè)各系統(tǒng)的I/O負(fù)載量,通過(guò)手工配置每個(gè)數(shù)據(jù)到不同存放位置以分擔(dān)I/O負(fù)載來(lái)達(dá)到負(fù)載均衡的目的。

條帶化技術(shù)就是將數(shù)據(jù)分成很多小部分并把它們分別存儲(chǔ)到不同磁盤上的不同文件中去。這就能使多個(gè)進(jìn)程同時(shí)訪問(wèn)數(shù)據(jù)的多個(gè)不同部分而不會(huì)造成磁盤沖 突。很多操作系統(tǒng)、磁盤設(shè)備供應(yīng)商、各種第三方軟件都能做到條帶化。通過(guò)條帶化,DBA可以很輕松地做到I/O負(fù)載均衡,而無(wú)須去手工配置。

3.1.4.3  RAID的I/O特性

RAID在市場(chǎng)上的應(yīng)用,已經(jīng)不是新鮮的事兒了,很多人都大略了解RAID的基本觀念以及各個(gè)不同RAID LEVEL的區(qū)分。但是在實(shí)際應(yīng)用時(shí),很多使用者仍然無(wú)法很確切地選擇一個(gè)合適的RAID LEVEL,尤其是對(duì)于RAID 0+1(10),RAID 3,RAID 5之間的選擇取舍,更是舉棋不定。

針對(duì)RAID 0+1/10以及RAID 5的工作原理和特性,做一些分析和比較,以列出這些不同RAID階層所適合的應(yīng)用,希望對(duì)各位能有原則性的幫助。

在使用數(shù)據(jù)條切﹝Data Stripping﹞ 的RAID 系統(tǒng)之中,對(duì)成員磁盤驅(qū)動(dòng)器的存取方式,可分為以下兩種。

并行存取﹝Paralleled Access﹞。

獨(dú)立存取﹝Independent Access﹞。

RAID 2和RAID 3 是采取并行存取模式, RAID 0、RAID 4、RAID 5及RAID 6則是采用獨(dú)立存取模式。

1.并行存取模式

并行存取模式是把所有磁盤驅(qū)動(dòng)器的主軸馬達(dá)做精密的控制,使每個(gè)磁盤的位置都彼此同步,然后對(duì)每一個(gè)磁盤驅(qū)動(dòng)器作一個(gè)很短的I/O數(shù)據(jù)傳送,因此,從主機(jī)來(lái)的每一個(gè)I/O 指令,都平均分布到每一個(gè)磁盤驅(qū)動(dòng)器。

為了達(dá)到并行存取的功能,RAID中的每一個(gè)磁盤驅(qū)動(dòng)器,都必須具備幾乎完全相同的規(guī)格,轉(zhuǎn)速必須一樣、磁頭搜尋速度﹝Access Time﹞必須相同、緩沖區(qū)(Buffer)或緩存(Cache)的容量和存取速度要一致、CPU處理指令的速度要相同、I/O信道(Channel)的 速度也要一樣??偠灾?,要利用并行存取模式,RAID中所有的成員磁盤驅(qū)動(dòng)器,應(yīng)該使用同一廠牌、相同型號(hào)的磁盤驅(qū)動(dòng)器。

2.并行存取的基本工作原理

假設(shè)RAID中共有4部相同規(guī)格的磁盤驅(qū)動(dòng)器,分別為磁盤驅(qū)動(dòng)器A、B、C和D,再把時(shí)間軸略分為T0、T1、T2、T3和T4。

T0:RAID控制器將第一筆數(shù)據(jù)傳送到A的緩沖區(qū)(Buffer),磁盤驅(qū)動(dòng)器B、C和D的Buffer都是空的,在等待中;

T1:RAID控制器將第二筆數(shù)據(jù)傳送到B的Buffer,A開(kāi)始把Buffer中的數(shù)據(jù)寫入扇區(qū),磁盤驅(qū)動(dòng)器C和D的Buffer都是空的,在等待中;

T2:RAID控制器將第三筆數(shù)據(jù)傳送到C的Buffer,B開(kāi)始把Buffer中的數(shù)據(jù)寫入扇區(qū),A已經(jīng)完成寫入動(dòng)作,磁盤驅(qū)動(dòng)器D和A的Buffer都是空的,在等待中;

T3:RAID控制器將第四筆數(shù)據(jù)傳送到D的Buffer,C開(kāi)始把Buffer中的數(shù)據(jù)寫入扇區(qū),B已經(jīng)完成寫入動(dòng)作,磁盤驅(qū)動(dòng)器A和B的Buffer都是空的,在等待中;

T4:RAID控制器將第五筆數(shù)據(jù)傳送到A的Buffer,D開(kāi)始把Buffer中的數(shù)據(jù)寫入扇區(qū),C已經(jīng)完成寫入動(dòng)作,磁盤驅(qū)動(dòng)器B和C的Buffer都是空的,在等待中。

如此循環(huán),一直到把從主機(jī)來(lái)的這個(gè)I/O 指令處理完畢,RAID控制器才會(huì)接受處理下一個(gè)I/O 指令。重點(diǎn)是在任何一個(gè)磁盤驅(qū)動(dòng)器準(zhǔn)備好把數(shù)據(jù)寫入扇區(qū)時(shí),該目的扇區(qū)必須剛好轉(zhuǎn)到磁頭下。同時(shí)RAID控制器每依次傳給一個(gè)磁盤驅(qū)動(dòng)器的數(shù)據(jù)長(zhǎng)度,也必 須剛好,配合磁盤驅(qū)動(dòng)器的轉(zhuǎn)速,否則一旦發(fā)生失誤,RAID性能就大打折扣。

3.并行存取RAID的最佳應(yīng)用

并行存取RAID之架構(gòu),以其精細(xì)的馬達(dá)控制和分布數(shù)據(jù)傳輸,將數(shù)組中每一個(gè)磁盤驅(qū)動(dòng)器的性能發(fā)揮到最大,同時(shí)充分利用Storage Bus的頻寬,因此特別適合應(yīng)用在以下幾種大型、數(shù)據(jù)連續(xù)的檔案存取中。

影像、視訊文件服務(wù)器。

數(shù)據(jù)倉(cāng)儲(chǔ)系統(tǒng)。

多媒體數(shù)據(jù)庫(kù)。

電子圖書館。

印前或底片輸出文件服務(wù)器。

其他大型且連續(xù)性文件服務(wù)器。

由于并行存取RAID架構(gòu)之特性,RAID 控制器一次只能處理一個(gè)I/O要求,無(wú)法執(zhí)行重疊的多任務(wù),因此非常不適合應(yīng)用在I/O次數(shù)頻繁、數(shù)據(jù)隨機(jī)存取、每筆數(shù)據(jù)傳輸量小的環(huán)境。同時(shí),因?yàn)椴⑿? 存取無(wú)法執(zhí)行重疊的多任務(wù),因此沒(méi)有辦法 "隱藏"磁盤驅(qū)動(dòng)器搜尋(Seek)的時(shí)間,而且在每一個(gè)I/O的第一筆數(shù)據(jù)傳輸時(shí),都要等待第一個(gè)磁盤驅(qū)動(dòng)器的旋轉(zhuǎn)延遲(Rotational Latency),平均為旋轉(zhuǎn)半圈的時(shí)間,如果使用一萬(wàn)轉(zhuǎn)的磁盤驅(qū)動(dòng)器,平均就需要等待50 us。所以機(jī)械延遲時(shí)間,是并行存取架構(gòu)的最大問(wèn)題。

4.獨(dú)立存取模式

相對(duì)于并行存取模式,獨(dú)立存取模式并不對(duì)成員磁盤驅(qū)動(dòng)器做同步轉(zhuǎn)動(dòng)控制,其對(duì)每個(gè)磁盤驅(qū)動(dòng)器的存取,都是獨(dú)立且沒(méi)有順序和時(shí)間間隔的限制,同時(shí)每筆 傳輸?shù)臄?shù)據(jù)量都比較大。因此,獨(dú)立存取模式可以盡量地利用重疊多任務(wù)、Tagged Command Queuing等高級(jí)功能,來(lái)"隱藏"上述磁盤驅(qū)動(dòng)器的機(jī)械時(shí)間延遲﹝Seek 和Rotational Latency﹞。

由于獨(dú)立存取模式可以做重疊多任務(wù),而且可以同時(shí)處理來(lái)自多個(gè)主機(jī)不同的I/O請(qǐng)求(Requests),在多主機(jī)環(huán)境﹝如集群(Clustering)﹞,更可發(fā)揮最大的性能。

5.獨(dú)立存取RAID的最佳應(yīng)用

由于獨(dú)立存取模式可以同時(shí)接受多個(gè)I/O Requests,因此特別適合應(yīng)用在以下幾種數(shù)據(jù)存取頻繁、每筆數(shù)據(jù)量較小的系統(tǒng)。

在線交易系統(tǒng)或電子商務(wù)應(yīng)用。

多使用者數(shù)據(jù)庫(kù)。

ERM及MRP 系統(tǒng)。

小文件之文件服務(wù)器。

一般常用的RAID階層,分別是RAID 0、RAID 1、RAID 3、RAID 4以及RAID 5,再加上二合一型RAID 0+1﹝或稱RAID 10﹞。把這些RAID級(jí)別的優(yōu)、缺點(diǎn)做個(gè)比較,見(jiàn)表3-3。

表3-3  各種RAID優(yōu)缺點(diǎn)比較

RAID級(jí)別

相對(duì)優(yōu)點(diǎn)

相對(duì)缺點(diǎn)

RAID 0

存取速度最快

沒(méi)有容錯(cuò)

RAID 1

完全容錯(cuò)

成本高

RAID 3

寫入性能最好

沒(méi)有多任務(wù)功能

RAID 4

具備多任務(wù)及容錯(cuò)功能

奇偶(Parity)磁盤驅(qū)

動(dòng)器造成性能瓶頸

RAID 5

具備多任務(wù)及容錯(cuò)功能

寫入時(shí)有開(kāi)銷(overhead

RAID 0+1/RAID 10

速度快、完全容錯(cuò)

成本高

接下來(lái),分別針對(duì)RAID 5以及RAID 0+1/RAID 10作深入的討論。

RAID 10和RAID 01的比較:RAID 10是先做鏡像,然后再做條帶。RAID 01則是先做條帶,然后再做鏡像。

以6個(gè)盤為例,RAID 10就是先將盤分成3組鏡像,然后再對(duì)這3個(gè)RAID 1做條帶。RAID0 1則是先利用3塊盤做RAID 0,然后將另外3塊盤作為RAID 0的鏡像。

下面以4塊盤為例來(lái)介紹安全性方面的差別。

1.RAID 10的情況

這種情況中,假設(shè)當(dāng)DISK 0損壞,在剩下的3塊盤中,只有當(dāng)DISK 1一個(gè)盤發(fā)生故障時(shí),才會(huì)導(dǎo)致整個(gè)RAID失效,可簡(jiǎn)單計(jì)算故障率為1/3。

3.1.5  RAID 10和RAID 5的比較

為了方便對(duì)比,拿同樣多驅(qū)動(dòng)器的磁盤來(lái)做對(duì)比,RAID 5選擇3D+1P的RAID方案,RAID 10選擇2D+2D的RAID方案。

1.安全性方面的比較

其實(shí)在安全性方面,勿須質(zhì)疑,肯定是RAID 10的安全性高于RAID 5。也可以從簡(jiǎn)單的分析得出此結(jié)論。當(dāng)盤1損壞時(shí),對(duì)于RAID 10,只有當(dāng)盤1對(duì)應(yīng)的鏡象盤也損壞,才導(dǎo)致RAID失效。但是對(duì)于RAID 5,剩下的3塊盤中,任何一塊盤故障,都將導(dǎo)致RAID失效。在恢復(fù)的時(shí)候,RAID 10恢復(fù)的速度也快于RAID 5。

2.空間利用率的比較

RAID 10的利用率是50%,RAID 5的利用率是75%。硬盤數(shù)量越多,RAID 5的空間利用率越高。

3.讀寫性能方面的比較

主要分析如下3個(gè)過(guò)程:讀、連續(xù)寫、離散寫。

在介紹這3個(gè)過(guò)程之前,先介紹一個(gè)特別重要的概念:緩存(cache)。

cache是整個(gè)存儲(chǔ)的核心所在,即使是中低端存儲(chǔ),也有很大的cache存在,包括最簡(jiǎn)單的raid卡,一般都包含有幾十甚至幾百M(fèi)B的raid cache。

cache的主要作用是什么呢?體現(xiàn)在讀與寫兩個(gè)不同的方面。如果作為寫,一般存儲(chǔ)陣列只要求寫到cache就算完成了寫操作,所以,陣列的寫是非 常快速的,在寫cache的數(shù)據(jù)積累到一定程度時(shí),陣列才把數(shù)據(jù)刷到磁盤,實(shí)現(xiàn)批量的寫入,至于cache數(shù)據(jù)的保護(hù),一般都依賴于鏡像與電池(或者是 UPS)。

cache的讀一樣不可忽視,因?yàn)槿绻x能在cache中命中的話,將會(huì)減少磁盤的尋道,因?yàn)榇疟P從尋道開(kāi)始到找到數(shù)據(jù),一般都在6ms以上,而這 個(gè)時(shí)間,對(duì)于那些密集型I/O的應(yīng)用可能不是太理想。但是,如果cache能命中,一般響應(yīng)時(shí)間則可以在1ms以內(nèi),兩者應(yīng)該相差3個(gè)數(shù)量級(jí)(1000 倍)。

(1)讀操作方面的性能差異

RAID 10可供讀取有效數(shù)據(jù)的磁盤個(gè)數(shù)為4,RAID 5可供讀取有效數(shù)據(jù)的磁盤個(gè)數(shù)也      為4(校驗(yàn)信息分布在所有的盤上),所以兩者的讀的性能應(yīng)該是基本一致的。

(2)連續(xù)寫方面的性能差異

在連續(xù)寫操作過(guò)程中,如果有寫cache存在,并且算法沒(méi)有問(wèn)題的話,RAID 5比RAID 10甚至?xí)靡恍?。(這里要假定存儲(chǔ)有一定大小足夠?qū)慶ache,而且計(jì)算校驗(yàn)的CPU不會(huì)出現(xiàn)瓶頸)。因?yàn)榇藭r(shí)RAID校驗(yàn)是在cache中完成,如 4塊盤的RAID 5,可以先在內(nèi)存中計(jì)算好校驗(yàn),同時(shí)寫入3個(gè)數(shù)據(jù)+1個(gè)校驗(yàn)。而RAID 10只能同時(shí)寫入2個(gè)數(shù)據(jù)+2個(gè)鏡像。

如圖3-4所示,4塊盤的RAID 5可以在同時(shí)間寫入1、2、3到cache,并且在cache計(jì)算好校驗(yàn)之后,這里假定是6,同時(shí)把3個(gè)數(shù)據(jù)寫到磁盤。而4塊盤的RAID 10不管cache是否存在,寫的時(shí)候,都是同時(shí)寫兩個(gè)數(shù)據(jù)與兩個(gè)鏡像。

根據(jù)前面對(duì)緩存原理的介紹,寫cache是可以緩存寫操作的,等到緩存寫數(shù)據(jù)積累到一定時(shí)期再寫到磁盤。但是,寫到磁盤陣列的過(guò)程是遲早也要發(fā)生 的,所以RAID 5與RAID 10在連續(xù)寫的情況下,從緩存到磁盤的寫操作速度會(huì)有較小的區(qū)別。不過(guò),如果不是連續(xù)性的強(qiáng)連續(xù)寫,只要不達(dá)到磁盤的寫極限,差別并不是太大。

(3)離散寫方面的性能差異

例如Oracle 數(shù)據(jù)庫(kù)每寫一個(gè)數(shù)據(jù)塊的數(shù)據(jù),如8KB,由于每次寫入的量不是很大,而且寫入的次數(shù)非常頻繁,因此聯(lián)機(jī)日志看起來(lái)像是連續(xù)寫。但是因?yàn)椴槐WC能夠添滿 RAID 5的一個(gè)條帶,比如32KB(保證每張盤都能寫入),所以很多時(shí)候更加偏向于離散寫入(寫入到已存在數(shù)據(jù)的條帶中)。

假定要把一個(gè)數(shù)字2變成數(shù)字4,那么對(duì)于RAID 5,實(shí)際發(fā)生了4次I/O。先讀出2與校驗(yàn)6,可能發(fā)生讀命中,然后在cache中計(jì)算新的校驗(yàn),寫入新的數(shù)字4與新的校驗(yàn)8。

同樣的單個(gè)操作,最終RAID 10只需要2個(gè)I/O,而RAID 5需要4個(gè)I/O。

這里忽略了RAID 5在那兩個(gè)讀操作的時(shí)候,可能會(huì)發(fā)生讀命中操作的情況。也就是說(shuō),如果需要讀取的數(shù)據(jù)已經(jīng)在cache中,可能是不需要4個(gè)I/O的。這也證明了 cache對(duì)                              RAID 5 的重要性,不僅是計(jì)算校驗(yàn)需要,對(duì)性能的提升也尤為重要。

當(dāng)然,并不是說(shuō)cache對(duì)RAID 10就不重要了,因?yàn)閷懢彌_、讀命中等,都是提高速度的關(guān)鍵所在,只不過(guò)RAID 10對(duì)cache的依賴性沒(méi)有RAID 5那么明顯而已。

(4)磁盤的IOPS對(duì)比

假定一個(gè)業(yè)務(wù)(case)的IOPS是10000,讀cache命中率是30%,讀IOPS為60%,寫IOPS為40%,磁盤個(gè)數(shù)為120,那么分別計(jì)算在RAID 5與RAID 10的情況下,每個(gè)磁盤的IOPS為多少。

RAID 5:

單塊盤的IOPS = (10000×(1-0.3)×0.6 + 4 × (10000×0.4))/120

= (4200 + 16000)/120

= 168

這里的10000×(1-0.3)×0.6表示讀的IOPS,比例是0.6,除掉cache命中,實(shí)際只有4200個(gè)IOPS。

4×(10000×0.4) 表示寫的IOPS,因?yàn)槊恳粋€(gè)寫,在RAID 5中,實(shí)際發(fā)生了4個(gè)I/O,所以寫的IOPS為16000個(gè)。

為了考慮RAID 5在寫操作的時(shí)候,那兩個(gè)讀操作也可能發(fā)生命中,所以更精確的計(jì)         算為:

單塊盤的IOPS = (10000×(1-0.3)×0.6 + 2 × (10000×0.4)×(1-0.3) + 2 × (10000×0.4))/120

= (4200 + 5600 + 8000)/120

= 148

計(jì)算出來(lái)單個(gè)盤的IOPS為148個(gè),基本達(dá)到磁盤極限。

RAID 10:

單塊盤的IOPS = (10000×(1-0.3)×0.6 + 2 × (10000×0.4))/120

= (4200 + 8000)/120

= 102

可以看到,因?yàn)镽AID 10對(duì)于一個(gè)寫操作,只發(fā)生兩次I/O,所以,同樣的壓力、同樣的磁盤,每個(gè)盤的IOPS只有102個(gè),還遠(yuǎn)低于磁盤的極限IOPS。

4.小結(jié)

所以要求較高的空間利用率、對(duì)安全性要求不是特別高、大文件存儲(chǔ)的系統(tǒng)采用RAID 5比較好。

相反,安全性要求很高、不計(jì)成本、小數(shù)據(jù)量頻繁寫入的系統(tǒng)采用RAID 10的方式比較好。

2.RAID 01的情況

這種情況下,仍然假設(shè)DISK 0損壞,這時(shí)左邊的條帶將無(wú)法讀取。在剩下的3塊盤中,只要DISK 2、DISK 3兩個(gè)盤中任何一個(gè)損壞,都會(huì)導(dǎo)致整個(gè)RAID失效,可簡(jiǎn)單計(jì)算故障率為2/3。

因此RAID 10比RAID 01在安全性方面要強(qiáng)。

從數(shù)據(jù)存儲(chǔ)的邏輯位置來(lái)看,在正常的情況下,RAID 01和RAID 10是完全一樣的,而且每一個(gè)讀寫操作所產(chǎn)生的I/O數(shù)量也是一樣的,所以在讀寫性能上兩者沒(méi)什么區(qū)別。而當(dāng)有磁盤出現(xiàn)故障時(shí),比如前面假設(shè)的DISK0 損壞時(shí),這兩種情況下,在讀的性能上面也將不同,RAID 10的讀性能將優(yōu)于RAID 01。


    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多