最近、仕事とか打ち合わせでこのお店を使うことが増えた今日この頃。くらーい話になりそうでも、ほほえましく思える猫。
あーっぷ!
ついでにメニューも!
ブラジル・オン・ザ・ロックス。
お店の雰囲気。
COFFEE HOUSE POEM 西小山北口店
東京都目黒区原町1-8-6a
03-3793-6934
最近、仕事とか打ち合わせでこのお店を使うことが増えた今日この頃。くらーい話になりそうでも、ほほえましく思える猫。
あーっぷ!
ついでにメニューも!
ブラジル・オン・ザ・ロックス。
お店の雰囲気。
COFFEE HOUSE POEM 西小山北口店
東京都目黒区原町1-8-6a
03-3793-6934
DL360G6 Xeon E5504 *2, MEM24GB FreeBSD9.0Rな環境でお遊び。
zfsで遊ぶよー!
[root@testsv01 /usr/home/tomo]# mptutil show drives mpt0 Physical Drives: da1 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 7 da2 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 8 da3 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 9 da4 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 10 da5 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 12 da6 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 13 da7 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 14 da8 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 15 da9 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 16 da10 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 17 da11 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 18 da12 ( 465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 19 da13 ( 29G) ONLINE <SSDSA2SH032G1GN 8850> SATA bus 0 id 20 da14 ( 29G) ONLINE <SSDSA2SH032G1GN 8621> SATA bus 0 id 21 da15 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 27 da16 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 28 da17 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 24 da18 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 25 da19 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 26 da20 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 29 da21 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 30 da22 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 31 da23 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 33 da24 ( 33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 32 [root@testsv01 /usr/home/tomo]# mptutil show config mpt0 Configuration: 0 volumes, 24 drives drive da1 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da2 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da3 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da4 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da5 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da6 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da7 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da8 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da9 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da10 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da11 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da12 (465G) ONLINE <Hitachi HTS72505 C70E> SATA drive da13 (29G) ONLINE <SSDSA2SH032G1GN 8850> SATA drive da14 (29G) ONLINE <SSDSA2SH032G1GN 8621> SATA drive da15 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da16 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da17 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da18 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da19 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da20 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da21 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da22 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da23 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS drive da24 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
上記の環境で、カーネルは下記のように設定。
/boot/loader.conf ----- vfs.zfs.arc_max="2048M"
まずは、SSD単体の性能試験。とりあえず、マルチレーンの恩恵があるか確認しておきます。それ以外の深い意味はありません。3Gbps/s なので、それ以上出ていれば、バスに当たっていることが無いという前提です。そのため、シーケンシャルで512kで試してみます。
zpool create -f testpool \ da13 da14
device r/s w/s kr/s kw/s qlen svc_t %b da13 5.0 1387.2 2.5 172087.2 10 6.8 96 da14 0.0 1239.5 0.0 152296.7 10 6.6 83 ----- da13 1593.8 0.0 202115.6 0.0 10 6.2 100 da14 1595.8 0.0 203128.5 0.0 10 6.2 100 ----- rr512k.log: read : io=3947.0MB, bw=404132KB/s, iops=789 , runt= 10001msec rw512k.log: write: io=3930.6MB, bw=381971KB/s, iops=746 , runt= 10537msec
とりあえずSSDの性能はそれなりに出ていると思います。iopsの低さは気になりますがorz
ちなみに、カタログスペックの性能として、単体の性能が、readが250MB/sec程度、writeが170MB/sec程度。
ということで、ずんずん進めていきましょう。
Sequential Read/Write
zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 \ raidz2 da15 da16 da17 da18 da19 da20 \ raidz2 da21 da22 da23 da24 ----- rr4k.log: read : io=3107.1MB, bw=318254KB/s, iops=79563 , runt= 10000msec rr512k.log: read : io=5560.0MB, bw=566963KB/s, iops=1107 , runt= 10042msec rw4k.log: write: io=894828KB, bw=89474KB/s, iops=22368 , runt= 10001msec rw512k.log: write: io=4830.6MB, bw=483333KB/s, iops=944 , runt= 10234msec
zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 \ raidz2 da15 da16 da17 da18 da19 da20 \ raidz2 da21 da22 da23 da24 \ log da13 \ cache da14 ----- rr4k.log: read : io=2904.7MB, bw=297435KB/s, iops=74358 , runt= 10000msec rr512k.log: read : io=5590.0MB, bw=572359KB/s, iops=1117 , runt= 10001msec rw4k.log: write: io=760964KB, bw=76028KB/s, iops=19006 , runt= 10009msec rw512k.log: write: io=4428.0MB, bw=449606KB/s, iops=878 , runt= 10085msec
このケースの場合、cache/logをつけたばあい、SSDにキャッシュとして乗っかってしまい、SSDの速度に引っ張られてしまい、全体で遅くなるケースがあるようです。iostatで見ていても、時々、logで設定したSSDがioの張り付きがあるようで、足を引っ張ってしまうことがしばしば。もう少し早いSSDだと話が変わるだろうが、遅いSSDならば、つけないほうが良さそうだ。
上記と同じ条件で、Random Read/Writeで実験すると、
cache,log無し ----- rr4k.log: read : io=15508KB, bw=1550.7KB/s, iops=387 , runt= 10001msec rr512k.log: read : io=502272KB, bw=50202KB/s, iops=98 , runt= 10005msec rw4k.log: write: io=8708.0KB, bw=890808 B/s, iops=217 , runt= 10010msec rw512k.log: write: io=4489.0MB, bw=432675KB/s, iops=845 , runt= 10624msec
cache,log有り ----- rr4k.log: read : io=17924KB, bw=1790.9KB/s, iops=447 , runt= 10009msec rr512k.log: read : io=544768KB, bw=54428KB/s, iops=106 , runt= 10009msec rw4k.log: write: io=9872.0KB, bw=986.53KB/s, iops=246 , runt= 10007msec:w rw512k.log: write: io=4328.6MB, bw=443194KB/s, iops=865 , runt= 10001msec
4kが少し性能が伸びるけど、余り大差なしorz
次に、ディスクの本数を減らしてやってみよう(普通順番が反対だよね?)。今回はSATAディスクのみで12本で、RAIDZ2+RAIDZ2でspan volume
Sequential Read/Write
cache,log無し ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 ----- rr4k.log: read : io=2835.3MB, bw=290325KB/s, iops=72581 , runt= 10000msec rr512k.log: read : io=4856.0MB, bw=495421KB/s, iops=967 , runt= 10037msec rw4k.log: write: io=807172KB, bw=80709KB/s, iops=20177 , runt= 10001msec rw512k.log: write: io=3441.6MB, bw=341747KB/s, iops=667 , runt= 10312msec
cache,log有り ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 \ log da13 \ cache da14 ----- rr4k.log: read : io=3237.7MB, bw=331537KB/s, iops=82884 , runt= 10000msec rr512k.log: read : io=5560.0MB, bw=568605KB/s, iops=1110 , runt= 10013msec rw4k.log: write: io=756868KB, bw=75679KB/s, iops=18919 , runt= 10001msec rw512k.log: write: io=2082.0MB, bw=180706KB/s, iops=352 , runt= 11798msec
Random Read/Write
cache,log無し ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 ----- rr4k.log: read : io=11164KB, bw=1115.1KB/s, iops=278 , runt= 10004msec rr512k.log: read : io=350720KB, bw=35061KB/s, iops=68 , runt= 10003msec rw4k.log: write: io=6216.0KB, bw=635818 B/s, iops=155 , runt= 10011msec rw512k.log: write: io=3250.0MB, bw=331111KB/s, iops=646 , runt= 10051msec
cache,log有り ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 \ raidz2 da7 da8 da9 da10 da11 da12 \ log da13 \ cache da14 ----- rr4k.log: read : io=14392KB, bw=1438.4KB/s, iops=359 , runt= 10006msec rr512k.log: read : io=427520KB, bw=42748KB/s, iops=83 , runt= 10001msec rw4k.log: write: io=7888.0KB, bw=807004 B/s, iops=197 , runt= 10009msec rw512k.log: write: io=2193.6MB, bw=224592KB/s, iops=438 , runt= 10001msec
次に、SATA 12本で、1ボリュームでGo!
Sequential Read/Write
cache,log無し ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \ ----- rr4k.log: read : io=3031.9MB, bw=309999KB/s, iops=77499 , runt= 10015msec rr512k.log: read : io=4408.0MB, bw=450029KB/s, iops=878 , runt= 10030msec rw4k.log: write: io=701500KB, bw=70150KB/s, iops=17537 , runt= 10000msec rw512k.log: write: io=3948.0MB, bw=395070KB/s, iops=771 , runt= 10233msec
cache,log有り ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \ log da13 \ cache da14 ----- rr4k.log: read : io=3114.9MB, bw=318925KB/s, iops=79731 , runt= 10001msec rr512k.log: read : io=5304.0MB, bw=542370KB/s, iops=1059 , runt= 10014msec rw4k.log: write: io=764164KB, bw=76409KB/s, iops=19102 , runt= 10001msec rw512k.log: write: io=3694.6MB, bw=378279KB/s, iops=738 , runt= 10001msec
Random Read/Write
cache,log無し ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 ----- rr4k.log: read : io=9300.0KB, bw=952034 B/s, iops=232 , runt= 10003msec rr512k.log: read : io=313344KB, bw=31322KB/s, iops=61 , runt= 10004msec rw4k.log: write: io=5164.0KB, bw=524024 B/s, iops=127 , runt= 10091msec rw512k.log: write: io=2509.6MB, bw=250363KB/s, iops=488 , runt= 10264msec
cache,log有り ----- zpool create -f testpool \ raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \ log da13 \ cache da14 ----- rr4k.log: read : io=12876KB, bw=1287.9KB/s, iops=321 , runt= 10004msec rr512k.log: read : io=419328KB, bw=41828KB/s, iops=81 , runt= 10025msec rw4k.log: write: io=7224.0KB, bw=738334 B/s, iops=180 , runt= 10019msec rw512k.log: write: io=3815.6MB, bw=377495KB/s, iops=737 , runt= 10350msec
ちなみに、一定の本数を超えると、ディスクの数が増えても大きなパフォーマンスの向上は無しorz
raidz2 + span でつないでも、どこか遅いraidz2ボリュームに性能が引きずられるようだ。。。
そして、遅い環境で、SATA+CACHEは結構有効なようだ。
次に、SASで遊んでみよう。
面倒なので、Randomのみの掲載。
zpool create testpool raidz2 \ da15 da16 da17 da18 ----- rr4k.log: read : io=19288KB, bw=1928.3KB/s, iops=482 , runt= 10004msec rr512k.log: read : io=498688KB, bw=49849KB/s, iops=97 , runt= 10004msec rw4k.log: write: io=10168KB, bw=1016.8KB/s, iops=254 , runt= 10001msec rw512k.log: write: io=1612.0MB, bw=156969KB/s, iops=306 , runt= 10516msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 ----- rr4k.log: read : io=20280KB, bw=2027.5KB/s, iops=506 , runt= 10003msec rr512k.log: read : io=589824KB, bw=58935KB/s, iops=115 , runt= 10008msec rw4k.log: write: io=10996KB, bw=1099.6KB/s, iops=274 , runt= 10001msec rw512k.log: write: io=2250.6MB, bw=228396KB/s, iops=446 , runt= 10090msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 ----- rr4k.log: read : io=19324KB, bw=1931.3KB/s, iops=482 , runt= 10006msec rr512k.log: read : io=646144KB, bw=64531KB/s, iops=126 , runt= 10013msec rw4k.log: write: io=10764KB, bw=1075.8KB/s, iops=268 , runt= 10006msec rw512k.log: write: io=2718.0MB, bw=275622KB/s, iops=538 , runt= 10098msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 ----- rr4k.log: read : io=18712KB, bw=1871.2KB/s, iops=467 , runt= 10001msec rr512k.log: read : io=622592KB, bw=62216KB/s, iops=121 , runt= 10007msec rw4k.log: write: io=10000KB, bw=999.62KB/s, iops=249 , runt= 10004msec rw512k.log: write: io=3020.6MB, bw=309237KB/s, iops=603 , runt= 10002msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 ----- rr4k.log: read : io=19752KB, bw=1974.3KB/s, iops=493 , runt= 10005msec rr512k.log: read : io=638976KB, bw=63859KB/s, iops=124 , runt= 10006msec rw4k.log: write: io=10956KB, bw=1084.5KB/s, iops=271 , runt= 10103msec rw512k.log: write: io=3224.6MB, bw=330123KB/s, iops=644 , runt= 10002msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 ----- rr4k.log: read : io=20268KB, bw=2025.4KB/s, iops=506 , runt= 10007msec rr512k.log: read : io=701952KB, bw=70160KB/s, iops=137 , runt= 10005msec rw4k.log: write: io=10988KB, bw=1072.7KB/s, iops=268 , runt= 10244msec rw512k.log: write: io=3329.6MB, bw=340907KB/s, iops=665 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 ----- rr4k.log: read : io=19432KB, bw=1942.5KB/s, iops=485 , runt= 10004msec rr512k.log: read : io=624640KB, bw=62408KB/s, iops=121 , runt= 10009msec rw4k.log: write: io=10460KB, bw=1043.7KB/s, iops=260 , runt= 10023msec rw512k.log: write: io=3384.6MB, bw=346503KB/s, iops=676 , runt= 10002msec
結論として、6発目からスケールしない。。。
次に、log, cacheをつけた結果。
zpool create testpool raidz2 \ da15 da16 da17 da18 log da13 cache da14 ----- rr4k.log: read : io=33508KB, bw=3349.5KB/s, iops=837 , runt= 10004msec rr512k.log: read : io=893952KB, bw=89324KB/s, iops=174 , runt= 10008msec rw4k.log: write: io=15636KB, bw=1563.5KB/s, iops=390 , runt= 10001msec rw512k.log: write: io=1636.6MB, bw=157750KB/s, iops=308 , runt= 10623msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 log da13 cache da14 ----- rr4k.log: read : io=28392KB, bw=2838.1KB/s, iops=709 , runt= 10001msec rr512k.log: read : io=785408KB, bw=78478KB/s, iops=153 , runt= 10008msec rw4k.log: write: io=14824KB, bw=1482.3KB/s, iops=370 , runt= 10001msec rw512k.log: write: io=2325.6MB, bw=238107KB/s, iops=465 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 log da13 cache da14 ----- rr4k.log: read : io=27792KB, bw=2777.6KB/s, iops=694 , runt= 10006msec rr512k.log: read : io=805888KB, bw=80581KB/s, iops=157 , runt= 10001msec rw4k.log: write: io=14944KB, bw=1493.9KB/s, iops=373 , runt= 10004msec rw512k.log: write: io=2792.6MB, bw=285866KB/s, iops=558 , runt= 10003msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 log da13 cache da14 ----- rr4k.log: read : io=27996KB, bw=2798.3KB/s, iops=699 , runt= 10005msec rr512k.log: read : io=812544KB, bw=81222KB/s, iops=158 , runt= 10004msec rw4k.log: write: io=15032KB, bw=1502.5KB/s, iops=375 , runt= 10005msec rw512k.log: write: io=2867.0MB, bw=293522KB/s, iops=573 , runt= 10002msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14 ----- rr4k.log: read : io=23388KB, bw=2338.6KB/s, iops=584 , runt= 10001msec rr512k.log: read : io=695808KB, bw=69546KB/s, iops=135 , runt= 10005msec rw4k.log: write: io=12528KB, bw=1252.5KB/s, iops=313 , runt= 10003msec rw512k.log: write: io=2957.6MB, bw=291452KB/s, iops=569 , runt= 10391msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14 ----- rr4k.log: read : io=26536KB, bw=2652.9KB/s, iops=663 , runt= 10006msec rr512k.log: read : io=719872KB, bw=71937KB/s, iops=140 , runt= 10007msec rw4k.log: write: io=14116KB, bw=1360.8KB/s, iops=340 , runt= 10374msec rw512k.log: write: io=3159.0MB, bw=305546KB/s, iops=596 , runt= 10587msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14 ----- rr4k.log: read : io=22760KB, bw=2274.9KB/s, iops=568 , runt= 10005msec rr512k.log: read : io=671232KB, bw=67076KB/s, iops=131 , runt= 10007msec rw4k.log: write: io=12476KB, bw=1208.1KB/s, iops=302 , runt= 10320msec rw512k.log: write: io=3265.0MB, bw=332111KB/s, iops=648 , runt= 10067msec
結論として、5本目から、ほとんどパフォーマンスの変化は無しw。
ついでに、ARC CACHEの制限を外してみて、最大20GBまで伸張できるように、カーネルの設定を変更して測定。
ちなみに、これも、RandomRead/Writeです。
log/cache無し
zpool create testpool raidz2 \ da15 da16 da17 da18 ----- rr4k.log: read : io=2903.7MB, bw=297333KB/s, iops=74333 , runt= 10000msec rr512k.log: read : io=34609MB, bw=3460.6MB/s, iops=6921 , runt= 10001msec rw4k.log: write: io=104740KB, bw=10051KB/s, iops=2512 , runt= 10421msec rw512k.log: write: io=1703.6MB, bw=162920KB/s, iops=318 , runt= 10707msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 ----- rr4k.log: read : io=2710.8MB, bw=277579KB/s, iops=69394 , runt= 10000msec rr512k.log: read : io=34936MB, bw=3493.3MB/s, iops=6986 , runt= 10001msec rw4k.log: write: io=182216KB, bw=13525KB/s, iops=3381 , runt= 13473msec rw512k.log: write: io=2264.6MB, bw=229453KB/s, iops=448 , runt= 10106msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 ----- rr4k.log: read : io=2660.9MB, bw=272438KB/s, iops=68109 , runt= 10001msec rr512k.log: read : io=34953MB, bw=3494.1MB/s, iops=6989 , runt= 10001msec rw4k.log: write: io=160864KB, bw=15376KB/s, iops=3844 , runt= 10462msec rw512k.log: write: io=2866.0MB, bw=293449KB/s, iops=573 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 ---- rr4k.log: read : io=1407.8MB, bw=144142KB/s, iops=36035 , runt= 10001msec rr512k.log: read : io=34749MB, bw=3474.6MB/s, iops=6949 , runt= 10001msec rw4k.log: write: io=309152KB, bw=30912KB/s, iops=7728 , runt= 10001msec rw512k.log: write: io=2794.0MB, bw=277611KB/s, iops=542 , runt= 10306msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 ---- rr4k.log: read : io=195952KB, bw=19576KB/s, iops=4893 , runt= 10010msec rr512k.log: read : io=36164MB, bw=3616.5MB/s, iops=7232 , runt= 10000msec rw4k.log: write: io=185756KB, bw=18574KB/s, iops=4643 , runt= 10001msec rw512k.log: write: io=3127.0MB, bw=320077KB/s, iops=625 , runt= 10004msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 ---- rr4k.log: read : io=232576KB, bw=23241KB/s, iops=5810 , runt= 10007msec rr512k.log: read : io=36386MB, bw=3638.3MB/s, iops=7276 , runt= 10001msec rw4k.log: write: io=134356KB, bw=13009KB/s, iops=3252 , runt= 10328msec rw512k.log: write: io=3273.6MB, bw=317882KB/s, iops=620 , runt= 10545msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 ---- rr4k.log: read : io=257672KB, bw=25754KB/s, iops=6438 , runt= 10005msec rr512k.log: read : io=34942MB, bw=3493.9MB/s, iops=6987 , runt= 10001msec rw4k.log: write: io=203688KB, bw=16299KB/s, iops=4074 , runt= 12497msec rw512k.log: write: io=3397.0MB, bw=347818KB/s, iops=679 , runt= 10001msec
6本目まで性能が良いが、そこから徐々に性能が落ち始めるので、RAIDZ2のときは、6本までにしたほうが良さそうだ。
次に、log/cache有りにして測定。
zpool create testpool raidz2 \ da15 da16 da17 da18 log da13 cache da14 ----- rr4k.log: read : io=3000.7MB, bw=307238KB/s, iops=76809 , runt= 10001msec rr512k.log: read : io=32933MB, bw=3292.1MB/s, iops=6585 , runt= 10001msec rw4k.log: write: io=62364KB, bw=6235.8KB/s, iops=1558 , runt= 10001msec rw512k.log: write: io=1689.0MB, bw=165174KB/s, iops=322 , runt= 10471msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 log da13 cache da14 ----- rr4k.log: read : io=3012.4MB, bw=308462KB/s, iops=77115 , runt= 10000msec rr512k.log: read : io=32315MB, bw=3231.2MB/s, iops=6462 , runt= 10001msec rw4k.log: write: io=84148KB, bw=7992.8KB/s, iops=1998 , runt= 10528msec rw512k.log: write: io=2248.6MB, bw=223453KB/s, iops=436 , runt= 10304msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 log da13 cache da14 ----- rr4k.log: read : io=2949.4MB, bw=301979KB/s, iops=75494 , runt= 10001msec rr512k.log: read : io=35100MB, bw=3509.7MB/s, iops=7019 , runt= 10001msec rw4k.log: write: io=95064KB, bw=9425.4KB/s, iops=2356 , runt= 10086msec rw512k.log: write: io=2596.6MB, bw=265855KB/s, iops=519 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 log da13 cache da14 ----- rr4k.log: read : io=2977.2MB, bw=304828KB/s, iops=76206 , runt= 10001msec rr512k.log: read : io=34903MB, bw=3489.1MB/s, iops=6979 , runt= 10001msec rw4k.log: write: io=104916KB, bw=10009KB/s, iops=2502 , runt= 10482msec rw512k.log: write: io=2862.0MB, bw=287125KB/s, iops=560 , runt= 10207msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14 ----- rr4k.log: read : io=2923.5MB, bw=299200KB/s, iops=74800 , runt= 10004msec rr512k.log: read : io=35268MB, bw=3526.5MB/s, iops=7052 , runt= 10001msec rw4k.log: write: io=113676KB, bw=11366KB/s, iops=2841 , runt= 10001msec rw512k.log: write: io=3084.0MB, bw=315770KB/s, iops=616 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14 ----- rr4k.log: read : io=2927.7MB, bw=299702KB/s, iops=74925 , runt= 10001msec rr512k.log: read : io=34227MB, bw=3422.4MB/s, iops=6844 , runt= 10001msec rw4k.log: write: io=112080KB, bw=11207KB/s, iops=2801 , runt= 10001msec rw512k.log: write: io=3249.6MB, bw=332716KB/s, iops=649 , runt= 10001msec
zpool create testpool raidz2 \ da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14 ----- rr4k.log: read : io=2984.6MB, bw=305476KB/s, iops=76368 , runt= 10003msec rr512k.log: read : io=35715MB, bw=3571.1MB/s, iops=7142 , runt= 10001msec rw4k.log: write: io=112520KB, bw=11047KB/s, iops=2761 , runt= 10186msec rw512k.log: write: io=2948.0MB, bw=300343KB/s, iops=586 , runt= 10051msec
この場合は、6本以上であっても、性能劣化は余り見られない。cache/logは非常に有効的に聞いているように見える。
結果としては、キャッシュの影響は絶大ですね。。
ディスクの本数にかかわらず、性能は変わりません。ただし、キャッシュのヒットが100%なのでこのような結果ですが、乗らなくなる状態(常に期待は出来ないため)では、先ほどのベンチのような値になるでしょう。
ということで、グラフはそのうちに作成しようかなとおもいまふ。
また、OpenIndianaの環境では、後日。
お酒を飲みながら酔っぱらいの検証でした。
ということで、関連サイトとして、下記のサイトを紹介。
横濱家で三日間限定、全品500円セールをやっていたので、お昼ご飯にラーメン。
ネギチャーシューの餃子とチャーハンのセット。
あっさり目でおいしくいただけました!
最近なぜか豚骨系が体が受け入れれるようになり、おいしくいただけるようになったので(笑)
NAIST方面の集まり。
今回もお誘いいただいたので、参加してきました。
だけど、最近結婚、出産、子供と世帯持ちが増えてきて(うきーっ)参加エントリーしていても、子供が風邪を引いてしまったとかで、なかなか人が集まらないんですね。ドタキャンもそれなりに。
当初の予定の人数で食材を買うと、絶対に余ってしまうと言うのが2年連続で痛感してしまいました。
ちなみに、おいしい物をひたすら食べようよというイベントで、自作から、買ってきた物まで。テーマを決めて楽しむという会で、子供も楽しめるような感じ。
さて、今回はソーセージがテーマです。じゃ、つくってみよ〜!
挽肉のブレンドをコネコネ。
手で暖まらないように、氷水の上にボールを置いて、ひたすら混ぜます。
平行して、腸詰め用の腸を戻して…準備しておきましょう。
コネコネできて、スパイスなど調合出来たら、ソーセージを作成。
つめつめ、腸詰め。
ソーセージの形になってきました。
ねじりましょう。
完成!
さて、こちらは既製品のソーセージ:)
かーっと!
焼き焼き。うん、良い香り。
おさらどーん!うんまー!
ボイルしてー。
やいて〜。ふぁいあー!
ポトフ〜。うまうま。コンソメいいね。
おにぎりも。上手すぎ!激うまー。
ソーセージやきやき。人が減ってノルマに。。。
自作ソーセージのお味は・・・。微妙w。
スパイスが足りないのかなぁ。そして、練り足りなかったようで、ハンバーグのようになってしまいました。残念。ハンバーグと思えばおいしいけど、ソーセージだと思ったら外れですね。。。
良い経験をさせていただきました。たのしかったー。ありがとう!