title
わたしの日記は日々の出来事の鬱憤晴らしの毒だし日記がメインです。 相当病んでいます。くだを巻いています。許容出来る方のみのアクセスをお願いします。 また、この日記へのリンクは原則自由にして頂いても結構ですが、 写真への直リンクを張るのはご遠慮下さい。内容に関しては、一切保証致しません。
カテゴリ一覧 Network, Internet, IPv6, DC, NTT, Comp, Linux, Debian, FreeBSD, Windows, Server, Security, IRC, 大学, Neta, spam, , 生活, 遊び, Drive, TV, 仕事,
過去日記:





2012年10月04日(木) [晴れ]

[] COFFEE HOUSE POEM 西小山北口店

最近、仕事とか打ち合わせでこのお店を使うことが増えた今日この頃。くらーい話になりそうでも、ほほえましく思える猫。



あーっぷ!



ついでにメニューも!



ブラジル・オン・ザ・ロックス。



お店の雰囲気。

COFFEE HOUSE POEM 西小山北口店
東京都目黒区原町1-8-6a
03-3793-6934

[ コメントを読む(0) | コメントする ]

2012年10月07日() [晴れ]

[Compter][FreeBSD] FreeBSD9.0R on DL360G6 @E5504*2 MEM24GB環境ZFSお遊び。

DL360G6 Xeon E5504 *2, MEM24GB FreeBSD9.0Rな環境でお遊び。
zfsで遊ぶよー!

[root@testsv01 /usr/home/tomo]# mptutil show drives
mpt0 Physical Drives:
 da1 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 7
 da2 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 8
 da3 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 9
 da4 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 10
 da5 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 12
 da6 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 13
 da7 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 14
 da8 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 15
 da9 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 16
da10 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 17
da11 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 18
da12 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 19
da13 (   29G) ONLINE <SSDSA2SH032G1GN 8850> SATA bus 0 id 20
da14 (   29G) ONLINE <SSDSA2SH032G1GN 8621> SATA bus 0 id 21
da15 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 27
da16 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 28
da17 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 24
da18 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 25
da19 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 26
da20 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 29
da21 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 30
da22 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 31
da23 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 33
da24 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 32
[root@testsv01 /usr/home/tomo]# mptutil show config
mpt0 Configuration: 0 volumes, 24 drives
    drive da1 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da2 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da3 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da4 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da5 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da6 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da7 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da8 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da9 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da10 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da11 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da12 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da13 (29G) ONLINE <SSDSA2SH032G1GN 8850> SATA
    drive da14 (29G) ONLINE <SSDSA2SH032G1GN 8621> SATA
    drive da15 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da16 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da17 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da18 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da19 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da20 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da21 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da22 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da23 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da24 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS

上記の環境で、カーネルは下記のように設定。

/boot/loader.conf
-----
vfs.zfs.arc_max="2048M"

まずは、SSD単体の性能試験。とりあえず、マルチレーンの恩恵があるか確認しておきます。それ以外の深い意味はありません。3Gbps/s なので、それ以上出ていれば、バスに当たっていることが無いという前提です。そのため、シーケンシャルで512kで試してみます。

zpool create -f testpool \
da13 da14
device     r/s   w/s    kr/s    kw/s qlen svc_t  %b
da13       5.0 1387.2     2.5 172087.2   10   6.8  96
da14       0.0 1239.5     0.0 152296.7   10   6.6  83
-----
da13     1593.8   0.0 202115.6     0.0   10   6.2 100
da14     1595.8   0.0 203128.5     0.0   10   6.2 100
-----
rr512k.log:  read : io=3947.0MB, bw=404132KB/s, iops=789 , runt= 10001msec
rw512k.log:  write: io=3930.6MB, bw=381971KB/s, iops=746 , runt= 10537msec

とりあえずSSDの性能はそれなりに出ていると思います。iopsの低さは気になりますがorz
ちなみに、カタログスペックの性能として、単体の性能が、readが250MB/sec程度、writeが170MB/sec程度。

ということで、ずんずん進めていきましょう。
Sequential Read/Write

zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24
-----
rr4k.log:    read : io=3107.1MB, bw=318254KB/s, iops=79563 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=566963KB/s, iops=1107 , runt= 10042msec
rw4k.log:    write: io=894828KB, bw=89474KB/s, iops=22368 , runt= 10001msec
rw512k.log:  write: io=4830.6MB, bw=483333KB/s, iops=944 , runt= 10234msec
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24 \
log da13 \
cache da14
-----
rr4k.log:    read : io=2904.7MB, bw=297435KB/s, iops=74358 , runt= 10000msec
rr512k.log:  read : io=5590.0MB, bw=572359KB/s, iops=1117 , runt= 10001msec
rw4k.log:    write: io=760964KB, bw=76028KB/s, iops=19006 , runt= 10009msec
rw512k.log:  write: io=4428.0MB, bw=449606KB/s, iops=878 , runt= 10085msec

このケースの場合、cache/logをつけたばあい、SSDにキャッシュとして乗っかってしまい、SSDの速度に引っ張られてしまい、全体で遅くなるケースがあるようです。iostatで見ていても、時々、logで設定したSSDがioの張り付きがあるようで、足を引っ張ってしまうことがしばしば。もう少し早いSSDだと話が変わるだろうが、遅いSSDならば、つけないほうが良さそうだ。

上記と同じ条件で、Random Read/Writeで実験すると、

cache,log無し
-----
rr4k.log:    read : io=15508KB, bw=1550.7KB/s, iops=387 , runt= 10001msec
rr512k.log:  read : io=502272KB, bw=50202KB/s, iops=98 , runt= 10005msec
rw4k.log:    write: io=8708.0KB, bw=890808 B/s, iops=217 , runt= 10010msec
rw512k.log:  write: io=4489.0MB, bw=432675KB/s, iops=845 , runt= 10624msec
cache,log有り
-----
rr4k.log:    read : io=17924KB, bw=1790.9KB/s, iops=447 , runt= 10009msec
rr512k.log:  read : io=544768KB, bw=54428KB/s, iops=106 , runt= 10009msec
rw4k.log:    write: io=9872.0KB, bw=986.53KB/s, iops=246 , runt= 10007msec:w
rw512k.log:  write: io=4328.6MB, bw=443194KB/s, iops=865 , runt= 10001msec

4kが少し性能が伸びるけど、余り大差なしorz

次に、ディスクの本数を減らしてやってみよう(普通順番が反対だよね?)。今回はSATAディスクのみで12本で、RAIDZ2+RAIDZ2でspan volume

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=2835.3MB, bw=290325KB/s, iops=72581 , runt= 10000msec
rr512k.log:  read : io=4856.0MB, bw=495421KB/s, iops=967 , runt= 10037msec
rw4k.log:    write: io=807172KB, bw=80709KB/s, iops=20177 , runt= 10001msec
rw512k.log:  write: io=3441.6MB, bw=341747KB/s, iops=667 , runt= 10312msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3237.7MB, bw=331537KB/s, iops=82884 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=568605KB/s, iops=1110 , runt= 10013msec
rw4k.log:    write: io=756868KB, bw=75679KB/s, iops=18919 , runt= 10001msec
rw512k.log:  write: io=2082.0MB, bw=180706KB/s, iops=352 , runt= 11798msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=11164KB, bw=1115.1KB/s, iops=278 , runt= 10004msec
rr512k.log:  read : io=350720KB, bw=35061KB/s, iops=68 , runt= 10003msec
rw4k.log:    write: io=6216.0KB, bw=635818 B/s, iops=155 , runt= 10011msec
rw512k.log:  write: io=3250.0MB, bw=331111KB/s, iops=646 , runt= 10051msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=14392KB, bw=1438.4KB/s, iops=359 , runt= 10006msec
rr512k.log:  read : io=427520KB, bw=42748KB/s, iops=83 , runt= 10001msec
rw4k.log:    write: io=7888.0KB, bw=807004 B/s, iops=197 , runt= 10009msec
rw512k.log:  write: io=2193.6MB, bw=224592KB/s, iops=438 , runt= 10001msec

次に、SATA 12本で、1ボリュームでGo!

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
-----
rr4k.log:    read : io=3031.9MB, bw=309999KB/s, iops=77499 , runt= 10015msec
rr512k.log:  read : io=4408.0MB, bw=450029KB/s, iops=878 , runt= 10030msec
rw4k.log:    write: io=701500KB, bw=70150KB/s, iops=17537 , runt= 10000msec
rw512k.log:  write: io=3948.0MB, bw=395070KB/s, iops=771 , runt= 10233msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3114.9MB, bw=318925KB/s, iops=79731 , runt= 10001msec
rr512k.log:  read : io=5304.0MB, bw=542370KB/s, iops=1059 , runt= 10014msec
rw4k.log:    write: io=764164KB, bw=76409KB/s, iops=19102 , runt= 10001msec
rw512k.log:  write: io=3694.6MB, bw=378279KB/s, iops=738 , runt= 10001msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=9300.0KB, bw=952034 B/s, iops=232 , runt= 10003msec
rr512k.log:  read : io=313344KB, bw=31322KB/s, iops=61 , runt= 10004msec
rw4k.log:    write: io=5164.0KB, bw=524024 B/s, iops=127 , runt= 10091msec
rw512k.log:  write: io=2509.6MB, bw=250363KB/s, iops=488 , runt= 10264msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=12876KB, bw=1287.9KB/s, iops=321 , runt= 10004msec
rr512k.log:  read : io=419328KB, bw=41828KB/s, iops=81 , runt= 10025msec
rw4k.log:    write: io=7224.0KB, bw=738334 B/s, iops=180 , runt= 10019msec
rw512k.log:  write: io=3815.6MB, bw=377495KB/s, iops=737 , runt= 10350msec

ちなみに、一定の本数を超えると、ディスクの数が増えても大きなパフォーマンスの向上は無しorz
raidz2 + span でつないでも、どこか遅いraidz2ボリュームに性能が引きずられるようだ。。。
そして、遅い環境で、SATA+CACHEは結構有効なようだ。

次に、SASで遊んでみよう。

面倒なので、Randomのみの掲載。

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=19288KB, bw=1928.3KB/s, iops=482 , runt= 10004msec
rr512k.log:  read : io=498688KB, bw=49849KB/s, iops=97 , runt= 10004msec
rw4k.log:    write: io=10168KB, bw=1016.8KB/s, iops=254 , runt= 10001msec
rw512k.log:  write: io=1612.0MB, bw=156969KB/s, iops=306 , runt= 10516msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=20280KB, bw=2027.5KB/s, iops=506 , runt= 10003msec
rr512k.log:  read : io=589824KB, bw=58935KB/s, iops=115 , runt= 10008msec
rw4k.log:    write: io=10996KB, bw=1099.6KB/s, iops=274 , runt= 10001msec
rw512k.log:  write: io=2250.6MB, bw=228396KB/s, iops=446 , runt= 10090msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=19324KB, bw=1931.3KB/s, iops=482 , runt= 10006msec
rr512k.log:  read : io=646144KB, bw=64531KB/s, iops=126 , runt= 10013msec
rw4k.log:    write: io=10764KB, bw=1075.8KB/s, iops=268 , runt= 10006msec
rw512k.log:  write: io=2718.0MB, bw=275622KB/s, iops=538 , runt= 10098msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
-----
rr4k.log:    read : io=18712KB, bw=1871.2KB/s, iops=467 , runt= 10001msec
rr512k.log:  read : io=622592KB, bw=62216KB/s, iops=121 , runt= 10007msec
rw4k.log:    write: io=10000KB, bw=999.62KB/s, iops=249 , runt= 10004msec
rw512k.log:  write: io=3020.6MB, bw=309237KB/s, iops=603 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
-----
rr4k.log:    read : io=19752KB, bw=1974.3KB/s, iops=493 , runt= 10005msec
rr512k.log:  read : io=638976KB, bw=63859KB/s, iops=124 , runt= 10006msec
rw4k.log:    write: io=10956KB, bw=1084.5KB/s, iops=271 , runt= 10103msec
rw512k.log:  write: io=3224.6MB, bw=330123KB/s, iops=644 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
-----
rr4k.log:    read : io=20268KB, bw=2025.4KB/s, iops=506 , runt= 10007msec
rr512k.log:  read : io=701952KB, bw=70160KB/s, iops=137 , runt= 10005msec
rw4k.log:    write: io=10988KB, bw=1072.7KB/s, iops=268 , runt= 10244msec
rw512k.log:  write: io=3329.6MB, bw=340907KB/s, iops=665 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
-----
rr4k.log:    read : io=19432KB, bw=1942.5KB/s, iops=485 , runt= 10004msec
rr512k.log:  read : io=624640KB, bw=62408KB/s, iops=121 , runt= 10009msec
rw4k.log:    write: io=10460KB, bw=1043.7KB/s, iops=260 , runt= 10023msec
rw512k.log:  write: io=3384.6MB, bw=346503KB/s, iops=676 , runt= 10002msec

結論として、6発目からスケールしない。。。

次に、log, cacheをつけた結果。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=33508KB, bw=3349.5KB/s, iops=837 , runt= 10004msec
rr512k.log:  read : io=893952KB, bw=89324KB/s, iops=174 , runt= 10008msec
rw4k.log:    write: io=15636KB, bw=1563.5KB/s, iops=390 , runt= 10001msec
rw512k.log:  write: io=1636.6MB, bw=157750KB/s, iops=308 , runt= 10623msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=28392KB, bw=2838.1KB/s, iops=709 , runt= 10001msec
rr512k.log:  read : io=785408KB, bw=78478KB/s, iops=153 , runt= 10008msec
rw4k.log:    write: io=14824KB, bw=1482.3KB/s, iops=370 , runt= 10001msec
rw512k.log:  write: io=2325.6MB, bw=238107KB/s, iops=465 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=27792KB, bw=2777.6KB/s, iops=694 , runt= 10006msec
rr512k.log:  read : io=805888KB, bw=80581KB/s, iops=157 , runt= 10001msec
rw4k.log:    write: io=14944KB, bw=1493.9KB/s, iops=373 , runt= 10004msec
rw512k.log:  write: io=2792.6MB, bw=285866KB/s, iops=558 , runt= 10003msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=27996KB, bw=2798.3KB/s, iops=699 , runt= 10005msec
rr512k.log:  read : io=812544KB, bw=81222KB/s, iops=158 , runt= 10004msec
rw4k.log:    write: io=15032KB, bw=1502.5KB/s, iops=375 , runt= 10005msec
rw512k.log:  write: io=2867.0MB, bw=293522KB/s, iops=573 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=23388KB, bw=2338.6KB/s, iops=584 , runt= 10001msec
rr512k.log:  read : io=695808KB, bw=69546KB/s, iops=135 , runt= 10005msec
rw4k.log:    write: io=12528KB, bw=1252.5KB/s, iops=313 , runt= 10003msec
rw512k.log:  write: io=2957.6MB, bw=291452KB/s, iops=569 , runt= 10391msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=26536KB, bw=2652.9KB/s, iops=663 , runt= 10006msec
rr512k.log:  read : io=719872KB, bw=71937KB/s, iops=140 , runt= 10007msec
rw4k.log:    write: io=14116KB, bw=1360.8KB/s, iops=340 , runt= 10374msec
rw512k.log:  write: io=3159.0MB, bw=305546KB/s, iops=596 , runt= 10587msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=22760KB, bw=2274.9KB/s, iops=568 , runt= 10005msec
rr512k.log:  read : io=671232KB, bw=67076KB/s, iops=131 , runt= 10007msec
rw4k.log:    write: io=12476KB, bw=1208.1KB/s, iops=302 , runt= 10320msec
rw512k.log:  write: io=3265.0MB, bw=332111KB/s, iops=648 , runt= 10067msec

結論として、5本目から、ほとんどパフォーマンスの変化は無しw。

ついでに、ARC CACHEの制限を外してみて、最大20GBまで伸張できるように、カーネルの設定を変更して測定。
ちなみに、これも、RandomRead/Writeです。

log/cache無し

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=2903.7MB, bw=297333KB/s, iops=74333 , runt= 10000msec
rr512k.log:  read : io=34609MB, bw=3460.6MB/s, iops=6921 , runt= 10001msec
rw4k.log:    write: io=104740KB, bw=10051KB/s, iops=2512 , runt= 10421msec
rw512k.log:  write: io=1703.6MB, bw=162920KB/s, iops=318 , runt= 10707msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=2710.8MB, bw=277579KB/s, iops=69394 , runt= 10000msec
rr512k.log:  read : io=34936MB, bw=3493.3MB/s, iops=6986 , runt= 10001msec
rw4k.log:    write: io=182216KB, bw=13525KB/s, iops=3381 , runt= 13473msec
rw512k.log:  write: io=2264.6MB, bw=229453KB/s, iops=448 , runt= 10106msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=2660.9MB, bw=272438KB/s, iops=68109 , runt= 10001msec
rr512k.log:  read : io=34953MB, bw=3494.1MB/s, iops=6989 , runt= 10001msec
rw4k.log:    write: io=160864KB, bw=15376KB/s, iops=3844 , runt= 10462msec
rw512k.log:  write: io=2866.0MB, bw=293449KB/s, iops=573 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
----
rr4k.log:    read : io=1407.8MB, bw=144142KB/s, iops=36035 , runt= 10001msec
rr512k.log:  read : io=34749MB, bw=3474.6MB/s, iops=6949 , runt= 10001msec
rw4k.log:    write: io=309152KB, bw=30912KB/s, iops=7728 , runt= 10001msec
rw512k.log:  write: io=2794.0MB, bw=277611KB/s, iops=542 , runt= 10306msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
----
rr4k.log:    read : io=195952KB, bw=19576KB/s, iops=4893 , runt= 10010msec
rr512k.log:  read : io=36164MB, bw=3616.5MB/s, iops=7232 , runt= 10000msec
rw4k.log:    write: io=185756KB, bw=18574KB/s, iops=4643 , runt= 10001msec
rw512k.log:  write: io=3127.0MB, bw=320077KB/s, iops=625 , runt= 10004msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
----
rr4k.log:    read : io=232576KB, bw=23241KB/s, iops=5810 , runt= 10007msec
rr512k.log:  read : io=36386MB, bw=3638.3MB/s, iops=7276 , runt= 10001msec
rw4k.log:    write: io=134356KB, bw=13009KB/s, iops=3252 , runt= 10328msec
rw512k.log:  write: io=3273.6MB, bw=317882KB/s, iops=620 , runt= 10545msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
----
rr4k.log:    read : io=257672KB, bw=25754KB/s, iops=6438 , runt= 10005msec
rr512k.log:  read : io=34942MB, bw=3493.9MB/s, iops=6987 , runt= 10001msec
rw4k.log:    write: io=203688KB, bw=16299KB/s, iops=4074 , runt= 12497msec
rw512k.log:  write: io=3397.0MB, bw=347818KB/s, iops=679 , runt= 10001msec

6本目まで性能が良いが、そこから徐々に性能が落ち始めるので、RAIDZ2のときは、6本までにしたほうが良さそうだ。

次に、log/cache有りにして測定。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=3000.7MB, bw=307238KB/s, iops=76809 , runt= 10001msec
rr512k.log:  read : io=32933MB, bw=3292.1MB/s, iops=6585 , runt= 10001msec
rw4k.log:    write: io=62364KB, bw=6235.8KB/s, iops=1558 , runt= 10001msec
rw512k.log:  write: io=1689.0MB, bw=165174KB/s, iops=322 , runt= 10471msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=3012.4MB, bw=308462KB/s, iops=77115 , runt= 10000msec
rr512k.log:  read : io=32315MB, bw=3231.2MB/s, iops=6462 , runt= 10001msec
rw4k.log:    write: io=84148KB, bw=7992.8KB/s, iops=1998 , runt= 10528msec
rw512k.log:  write: io=2248.6MB, bw=223453KB/s, iops=436 , runt= 10304msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=2949.4MB, bw=301979KB/s, iops=75494 , runt= 10001msec
rr512k.log:  read : io=35100MB, bw=3509.7MB/s, iops=7019 , runt= 10001msec
rw4k.log:    write: io=95064KB, bw=9425.4KB/s, iops=2356 , runt= 10086msec
rw512k.log:  write: io=2596.6MB, bw=265855KB/s, iops=519 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=2977.2MB, bw=304828KB/s, iops=76206 , runt= 10001msec
rr512k.log:  read : io=34903MB, bw=3489.1MB/s, iops=6979 , runt= 10001msec
rw4k.log:    write: io=104916KB, bw=10009KB/s, iops=2502 , runt= 10482msec
rw512k.log:  write: io=2862.0MB, bw=287125KB/s, iops=560 , runt= 10207msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=2923.5MB, bw=299200KB/s, iops=74800 , runt= 10004msec
rr512k.log:  read : io=35268MB, bw=3526.5MB/s, iops=7052 , runt= 10001msec
rw4k.log:    write: io=113676KB, bw=11366KB/s, iops=2841 , runt= 10001msec
rw512k.log:  write: io=3084.0MB, bw=315770KB/s, iops=616 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=2927.7MB, bw=299702KB/s, iops=74925 , runt= 10001msec
rr512k.log:  read : io=34227MB, bw=3422.4MB/s, iops=6844 , runt= 10001msec
rw4k.log:    write: io=112080KB, bw=11207KB/s, iops=2801 , runt= 10001msec
rw512k.log:  write: io=3249.6MB, bw=332716KB/s, iops=649 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=2984.6MB, bw=305476KB/s, iops=76368 , runt= 10003msec
rr512k.log:  read : io=35715MB, bw=3571.1MB/s, iops=7142 , runt= 10001msec
rw4k.log:    write: io=112520KB, bw=11047KB/s, iops=2761 , runt= 10186msec
rw512k.log:  write: io=2948.0MB, bw=300343KB/s, iops=586 , runt= 10051msec

この場合は、6本以上であっても、性能劣化は余り見られない。cache/logは非常に有効的に聞いているように見える。

結果としては、キャッシュの影響は絶大ですね。。
ディスクの本数にかかわらず、性能は変わりません。ただし、キャッシュのヒットが100%なのでこのような結果ですが、乗らなくなる状態(常に期待は出来ないため)では、先ほどのベンチのような値になるでしょう。

ということで、グラフはそのうちに作成しようかなとおもいまふ。
また、OpenIndianaの環境では、後日。
お酒を飲みながら酔っぱらいの検証でした。

ということで、関連サイトとして、下記のサイトを紹介。

tomocha  『あとで、sataで、raidz2で、4本からどのように変わるか、データを取ろう。わすれてた。』
[ コメントを読む(1) | コメントする ]

[] 横濱家 500円セール

横濱家で三日間限定、全品500円セールをやっていたので、お昼ご飯にラーメン。

ネギチャーシューの餃子とチャーハンのセット。



あっさり目でおいしくいただけました!
最近なぜか豚骨系が体が受け入れれるようになり、おいしくいただけるようになったので(笑)

[ コメントを読む(0) | コメントする ]

[Neta][Other] ENEOSでガソリンを入れようとしたら...

カードを入れたら下記のような画面。。



ライセンスエラー!?

zero  『「カード」センスエラーじゃ…。』
  『ナンセンスといえばいいだけなのに』
tomocha  『カードセンスエラー。センサー。ですね。しつれいいたしましたw。 ナンセンスはいいなぁ。。』
[ コメントを読む(3) | コメントする ]

2012年10月08日(月) [晴れ]

[][遊び] はがくれしょうゆ愛好会@横浜

NAIST方面の集まり。
今回もお誘いいただいたので、参加してきました。

だけど、最近結婚、出産、子供と世帯持ちが増えてきて(うきーっ)参加エントリーしていても、子供が風邪を引いてしまったとかで、なかなか人が集まらないんですね。ドタキャンもそれなりに。
当初の予定の人数で食材を買うと、絶対に余ってしまうと言うのが2年連続で痛感してしまいました。

ちなみに、おいしい物をひたすら食べようよというイベントで、自作から、買ってきた物まで。テーマを決めて楽しむという会で、子供も楽しめるような感じ。


さて、今回はソーセージがテーマです。じゃ、つくってみよ〜!



挽肉のブレンドをコネコネ。



手で暖まらないように、氷水の上にボールを置いて、ひたすら混ぜます。

平行して、腸詰め用の腸を戻して…準備しておきましょう。



コネコネできて、スパイスなど調合出来たら、ソーセージを作成。



つめつめ、腸詰め。



ソーセージの形になってきました。
ねじりましょう。



完成!



さて、こちらは既製品のソーセージ:)

かーっと!



焼き焼き。うん、良い香り。



おさらどーん!うんまー!


ボイルしてー。



やいて〜。ふぁいあー!



ポトフ〜。うまうま。コンソメいいね。



おにぎりも。上手すぎ!激うまー。



ソーセージやきやき。人が減ってノルマに。。。



自作ソーセージのお味は・・・。微妙w。
スパイスが足りないのかなぁ。そして、練り足りなかったようで、ハンバーグのようになってしまいました。残念。ハンバーグと思えばおいしいけど、ソーセージだと思ったら外れですね。。。

良い経験をさせていただきました。たのしかったー。ありがとう!

[ コメントを読む(0) | コメントする ]

2012年10月09日(火) [晴れ]

[] 自然派バイキング わらべ 吉祥寺店P

ちょっくら、お仕事関係で連れて行っていただきました。

家族で大人気のお店で、野菜不足の人にとってはとてもおすすめだとか。
私にもってこいなお店でした。

バイキング形式で、好きな物を食べれるのですが、基本的に野菜がベースのもの。
消化の良い物もおおく、優しい味付けですね。
お肉は余りありません。


カウンター



盛り合わせ



第二弾!


デザート!のはずが、何か違う!?



ディナータイムは1680円です。

自然派バイキング わらべ 吉祥寺店
0422-20-0140
東京都武蔵野市吉祥寺本町1-8-16 F&FビルB1

土日祝日入店受付時間 11:00〜21:30(L.O.21:00)
[ コメントを読む(0) | コメントする ]

[] KALDI のハロウィン

吉祥寺には結構KALDIが多くて、今の時期はハロウィン特集!



可愛かった〜!買わなかったけどw

[ コメントを読む(0) | コメントする ]

Diary for 4 day(s)
Powered by hns HyperNikkiSystem Project




(c) Copyright 1998-2014 tomocha. All rights reserved.