title
わたしの日記は日々の出来事の鬱憤晴らしの毒だし日記がメインです。 相当病んでいます。くだを巻いています。許容出来る方のみのアクセスをお願いします。 また、この日記へのリンクは原則自由にして頂いても結構ですが、 写真への直リンクを張るのはご遠慮下さい。内容に関しては、一切保証致しません。
カテゴリ一覧 Network, Internet, IPv6, DC, NTT, Comp, Linux, Debian, FreeBSD, Windows, Server, Security, IRC, 大学, Neta, spam, , 生活, 遊び, Drive, TV, 仕事,
過去日記:





2012年10月04日(木) [晴れ]

[] COFFEE HOUSE POEM 西小山北口店

最近、仕事とか打ち合わせでこのお店を使うことが増えた今日この頃。くらーい話になりそうでも、ほほえましく思える猫。



あーっぷ!



ついでにメニューも!



ブラジル・オン・ザ・ロックス。



お店の雰囲気。

COFFEE HOUSE POEM 西小山北口店
東京都目黒区原町1-8-6a
03-3793-6934

[ コメントを読む(0) | コメントする ]

2012年10月07日() [晴れ]

[Compter][FreeBSD] FreeBSD9.0R on DL360G6 @E5504*2 MEM24GB環境ZFSお遊び。

DL360G6 Xeon E5504 *2, MEM24GB FreeBSD9.0Rな環境でお遊び。
zfsで遊ぶよー!

[root@testsv01 /usr/home/tomo]# mptutil show drives
mpt0 Physical Drives:
 da1 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 7
 da2 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 8
 da3 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 9
 da4 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 10
 da5 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 12
 da6 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 13
 da7 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 14
 da8 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 15
 da9 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 16
da10 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 17
da11 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 18
da12 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 19
da13 (   29G) ONLINE <SSDSA2SH032G1GN 8850> SATA bus 0 id 20
da14 (   29G) ONLINE <SSDSA2SH032G1GN 8621> SATA bus 0 id 21
da15 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 27
da16 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 28
da17 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 24
da18 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 25
da19 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 26
da20 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 29
da21 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 30
da22 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 31
da23 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 33
da24 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 32
[root@testsv01 /usr/home/tomo]# mptutil show config
mpt0 Configuration: 0 volumes, 24 drives
    drive da1 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da2 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da3 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da4 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da5 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da6 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da7 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da8 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da9 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da10 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da11 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da12 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da13 (29G) ONLINE <SSDSA2SH032G1GN 8850> SATA
    drive da14 (29G) ONLINE <SSDSA2SH032G1GN 8621> SATA
    drive da15 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da16 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da17 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da18 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da19 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da20 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da21 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da22 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da23 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da24 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS

上記の環境で、カーネルは下記のように設定。

/boot/loader.conf
-----
vfs.zfs.arc_max="2048M"

まずは、SSD単体の性能試験。とりあえず、マルチレーンの恩恵があるか確認しておきます。それ以外の深い意味はありません。3Gbps/s なので、それ以上出ていれば、バスに当たっていることが無いという前提です。そのため、シーケンシャルで512kで試してみます。

zpool create -f testpool \
da13 da14
device     r/s   w/s    kr/s    kw/s qlen svc_t  %b
da13       5.0 1387.2     2.5 172087.2   10   6.8  96
da14       0.0 1239.5     0.0 152296.7   10   6.6  83
-----
da13     1593.8   0.0 202115.6     0.0   10   6.2 100
da14     1595.8   0.0 203128.5     0.0   10   6.2 100
-----
rr512k.log:  read : io=3947.0MB, bw=404132KB/s, iops=789 , runt= 10001msec
rw512k.log:  write: io=3930.6MB, bw=381971KB/s, iops=746 , runt= 10537msec

とりあえずSSDの性能はそれなりに出ていると思います。iopsの低さは気になりますがorz
ちなみに、カタログスペックの性能として、単体の性能が、readが250MB/sec程度、writeが170MB/sec程度。

ということで、ずんずん進めていきましょう。
Sequential Read/Write

zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24
-----
rr4k.log:    read : io=3107.1MB, bw=318254KB/s, iops=79563 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=566963KB/s, iops=1107 , runt= 10042msec
rw4k.log:    write: io=894828KB, bw=89474KB/s, iops=22368 , runt= 10001msec
rw512k.log:  write: io=4830.6MB, bw=483333KB/s, iops=944 , runt= 10234msec
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24 \
log da13 \
cache da14
-----
rr4k.log:    read : io=2904.7MB, bw=297435KB/s, iops=74358 , runt= 10000msec
rr512k.log:  read : io=5590.0MB, bw=572359KB/s, iops=1117 , runt= 10001msec
rw4k.log:    write: io=760964KB, bw=76028KB/s, iops=19006 , runt= 10009msec
rw512k.log:  write: io=4428.0MB, bw=449606KB/s, iops=878 , runt= 10085msec

このケースの場合、cache/logをつけたばあい、SSDにキャッシュとして乗っかってしまい、SSDの速度に引っ張られてしまい、全体で遅くなるケースがあるようです。iostatで見ていても、時々、logで設定したSSDがioの張り付きがあるようで、足を引っ張ってしまうことがしばしば。もう少し早いSSDだと話が変わるだろうが、遅いSSDならば、つけないほうが良さそうだ。

上記と同じ条件で、Random Read/Writeで実験すると、

cache,log無し
-----
rr4k.log:    read : io=15508KB, bw=1550.7KB/s, iops=387 , runt= 10001msec
rr512k.log:  read : io=502272KB, bw=50202KB/s, iops=98 , runt= 10005msec
rw4k.log:    write: io=8708.0KB, bw=890808 B/s, iops=217 , runt= 10010msec
rw512k.log:  write: io=4489.0MB, bw=432675KB/s, iops=845 , runt= 10624msec
cache,log有り
-----
rr4k.log:    read : io=17924KB, bw=1790.9KB/s, iops=447 , runt= 10009msec
rr512k.log:  read : io=544768KB, bw=54428KB/s, iops=106 , runt= 10009msec
rw4k.log:    write: io=9872.0KB, bw=986.53KB/s, iops=246 , runt= 10007msec:w
rw512k.log:  write: io=4328.6MB, bw=443194KB/s, iops=865 , runt= 10001msec

4kが少し性能が伸びるけど、余り大差なしorz

次に、ディスクの本数を減らしてやってみよう(普通順番が反対だよね?)。今回はSATAディスクのみで12本で、RAIDZ2+RAIDZ2でspan volume

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=2835.3MB, bw=290325KB/s, iops=72581 , runt= 10000msec
rr512k.log:  read : io=4856.0MB, bw=495421KB/s, iops=967 , runt= 10037msec
rw4k.log:    write: io=807172KB, bw=80709KB/s, iops=20177 , runt= 10001msec
rw512k.log:  write: io=3441.6MB, bw=341747KB/s, iops=667 , runt= 10312msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3237.7MB, bw=331537KB/s, iops=82884 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=568605KB/s, iops=1110 , runt= 10013msec
rw4k.log:    write: io=756868KB, bw=75679KB/s, iops=18919 , runt= 10001msec
rw512k.log:  write: io=2082.0MB, bw=180706KB/s, iops=352 , runt= 11798msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=11164KB, bw=1115.1KB/s, iops=278 , runt= 10004msec
rr512k.log:  read : io=350720KB, bw=35061KB/s, iops=68 , runt= 10003msec
rw4k.log:    write: io=6216.0KB, bw=635818 B/s, iops=155 , runt= 10011msec
rw512k.log:  write: io=3250.0MB, bw=331111KB/s, iops=646 , runt= 10051msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=14392KB, bw=1438.4KB/s, iops=359 , runt= 10006msec
rr512k.log:  read : io=427520KB, bw=42748KB/s, iops=83 , runt= 10001msec
rw4k.log:    write: io=7888.0KB, bw=807004 B/s, iops=197 , runt= 10009msec
rw512k.log:  write: io=2193.6MB, bw=224592KB/s, iops=438 , runt= 10001msec

次に、SATA 12本で、1ボリュームでGo!

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
-----
rr4k.log:    read : io=3031.9MB, bw=309999KB/s, iops=77499 , runt= 10015msec
rr512k.log:  read : io=4408.0MB, bw=450029KB/s, iops=878 , runt= 10030msec
rw4k.log:    write: io=701500KB, bw=70150KB/s, iops=17537 , runt= 10000msec
rw512k.log:  write: io=3948.0MB, bw=395070KB/s, iops=771 , runt= 10233msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3114.9MB, bw=318925KB/s, iops=79731 , runt= 10001msec
rr512k.log:  read : io=5304.0MB, bw=542370KB/s, iops=1059 , runt= 10014msec
rw4k.log:    write: io=764164KB, bw=76409KB/s, iops=19102 , runt= 10001msec
rw512k.log:  write: io=3694.6MB, bw=378279KB/s, iops=738 , runt= 10001msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=9300.0KB, bw=952034 B/s, iops=232 , runt= 10003msec
rr512k.log:  read : io=313344KB, bw=31322KB/s, iops=61 , runt= 10004msec
rw4k.log:    write: io=5164.0KB, bw=524024 B/s, iops=127 , runt= 10091msec
rw512k.log:  write: io=2509.6MB, bw=250363KB/s, iops=488 , runt= 10264msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=12876KB, bw=1287.9KB/s, iops=321 , runt= 10004msec
rr512k.log:  read : io=419328KB, bw=41828KB/s, iops=81 , runt= 10025msec
rw4k.log:    write: io=7224.0KB, bw=738334 B/s, iops=180 , runt= 10019msec
rw512k.log:  write: io=3815.6MB, bw=377495KB/s, iops=737 , runt= 10350msec

ちなみに、一定の本数を超えると、ディスクの数が増えても大きなパフォーマンスの向上は無しorz
raidz2 + span でつないでも、どこか遅いraidz2ボリュームに性能が引きずられるようだ。。。
そして、遅い環境で、SATA+CACHEは結構有効なようだ。

次に、SASで遊んでみよう。

面倒なので、Randomのみの掲載。

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=19288KB, bw=1928.3KB/s, iops=482 , runt= 10004msec
rr512k.log:  read : io=498688KB, bw=49849KB/s, iops=97 , runt= 10004msec
rw4k.log:    write: io=10168KB, bw=1016.8KB/s, iops=254 , runt= 10001msec
rw512k.log:  write: io=1612.0MB, bw=156969KB/s, iops=306 , runt= 10516msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=20280KB, bw=2027.5KB/s, iops=506 , runt= 10003msec
rr512k.log:  read : io=589824KB, bw=58935KB/s, iops=115 , runt= 10008msec
rw4k.log:    write: io=10996KB, bw=1099.6KB/s, iops=274 , runt= 10001msec
rw512k.log:  write: io=2250.6MB, bw=228396KB/s, iops=446 , runt= 10090msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=19324KB, bw=1931.3KB/s, iops=482 , runt= 10006msec
rr512k.log:  read : io=646144KB, bw=64531KB/s, iops=126 , runt= 10013msec
rw4k.log:    write: io=10764KB, bw=1075.8KB/s, iops=268 , runt= 10006msec
rw512k.log:  write: io=2718.0MB, bw=275622KB/s, iops=538 , runt= 10098msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
-----
rr4k.log:    read : io=18712KB, bw=1871.2KB/s, iops=467 , runt= 10001msec
rr512k.log:  read : io=622592KB, bw=62216KB/s, iops=121 , runt= 10007msec
rw4k.log:    write: io=10000KB, bw=999.62KB/s, iops=249 , runt= 10004msec
rw512k.log:  write: io=3020.6MB, bw=309237KB/s, iops=603 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
-----
rr4k.log:    read : io=19752KB, bw=1974.3KB/s, iops=493 , runt= 10005msec
rr512k.log:  read : io=638976KB, bw=63859KB/s, iops=124 , runt= 10006msec
rw4k.log:    write: io=10956KB, bw=1084.5KB/s, iops=271 , runt= 10103msec
rw512k.log:  write: io=3224.6MB, bw=330123KB/s, iops=644 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
-----
rr4k.log:    read : io=20268KB, bw=2025.4KB/s, iops=506 , runt= 10007msec
rr512k.log:  read : io=701952KB, bw=70160KB/s, iops=137 , runt= 10005msec
rw4k.log:    write: io=10988KB, bw=1072.7KB/s, iops=268 , runt= 10244msec
rw512k.log:  write: io=3329.6MB, bw=340907KB/s, iops=665 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
-----
rr4k.log:    read : io=19432KB, bw=1942.5KB/s, iops=485 , runt= 10004msec
rr512k.log:  read : io=624640KB, bw=62408KB/s, iops=121 , runt= 10009msec
rw4k.log:    write: io=10460KB, bw=1043.7KB/s, iops=260 , runt= 10023msec
rw512k.log:  write: io=3384.6MB, bw=346503KB/s, iops=676 , runt= 10002msec

結論として、6発目からスケールしない。。。

次に、log, cacheをつけた結果。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=33508KB, bw=3349.5KB/s, iops=837 , runt= 10004msec
rr512k.log:  read : io=893952KB, bw=89324KB/s, iops=174 , runt= 10008msec
rw4k.log:    write: io=15636KB, bw=1563.5KB/s, iops=390 , runt= 10001msec
rw512k.log:  write: io=1636.6MB, bw=157750KB/s, iops=308 , runt= 10623msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=28392KB, bw=2838.1KB/s, iops=709 , runt= 10001msec
rr512k.log:  read : io=785408KB, bw=78478KB/s, iops=153 , runt= 10008msec
rw4k.log:    write: io=14824KB, bw=1482.3KB/s, iops=370 , runt= 10001msec
rw512k.log:  write: io=2325.6MB, bw=238107KB/s, iops=465 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=27792KB, bw=2777.6KB/s, iops=694 , runt= 10006msec
rr512k.log:  read : io=805888KB, bw=80581KB/s, iops=157 , runt= 10001msec
rw4k.log:    write: io=14944KB, bw=1493.9KB/s, iops=373 , runt= 10004msec
rw512k.log:  write: io=2792.6MB, bw=285866KB/s, iops=558 , runt= 10003msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=27996KB, bw=2798.3KB/s, iops=699 , runt= 10005msec
rr512k.log:  read : io=812544KB, bw=81222KB/s, iops=158 , runt= 10004msec
rw4k.log:    write: io=15032KB, bw=1502.5KB/s, iops=375 , runt= 10005msec
rw512k.log:  write: io=2867.0MB, bw=293522KB/s, iops=573 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=23388KB, bw=2338.6KB/s, iops=584 , runt= 10001msec
rr512k.log:  read : io=695808KB, bw=69546KB/s, iops=135 , runt= 10005msec
rw4k.log:    write: io=12528KB, bw=1252.5KB/s, iops=313 , runt= 10003msec
rw512k.log:  write: io=2957.6MB, bw=291452KB/s, iops=569 , runt= 10391msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=26536KB, bw=2652.9KB/s, iops=663 , runt= 10006msec
rr512k.log:  read : io=719872KB, bw=71937KB/s, iops=140 , runt= 10007msec
rw4k.log:    write: io=14116KB, bw=1360.8KB/s, iops=340 , runt= 10374msec
rw512k.log:  write: io=3159.0MB, bw=305546KB/s, iops=596 , runt= 10587msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=22760KB, bw=2274.9KB/s, iops=568 , runt= 10005msec
rr512k.log:  read : io=671232KB, bw=67076KB/s, iops=131 , runt= 10007msec
rw4k.log:    write: io=12476KB, bw=1208.1KB/s, iops=302 , runt= 10320msec
rw512k.log:  write: io=3265.0MB, bw=332111KB/s, iops=648 , runt= 10067msec

結論として、5本目から、ほとんどパフォーマンスの変化は無しw。

ついでに、ARC CACHEの制限を外してみて、最大20GBまで伸張できるように、カーネルの設定を変更して測定。
ちなみに、これも、RandomRead/Writeです。

log/cache無し

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=2903.7MB, bw=297333KB/s, iops=74333 , runt= 10000msec
rr512k.log:  read : io=34609MB, bw=3460.6MB/s, iops=6921 , runt= 10001msec
rw4k.log:    write: io=104740KB, bw=10051KB/s, iops=2512 , runt= 10421msec
rw512k.log:  write: io=1703.6MB, bw=162920KB/s, iops=318 , runt= 10707msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=2710.8MB, bw=277579KB/s, iops=69394 , runt= 10000msec
rr512k.log:  read : io=34936MB, bw=3493.3MB/s, iops=6986 , runt= 10001msec
rw4k.log:    write: io=182216KB, bw=13525KB/s, iops=3381 , runt= 13473msec
rw512k.log:  write: io=2264.6MB, bw=229453KB/s, iops=448 , runt= 10106msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=2660.9MB, bw=272438KB/s, iops=68109 , runt= 10001msec
rr512k.log:  read : io=34953MB, bw=3494.1MB/s, iops=6989 , runt= 10001msec
rw4k.log:    write: io=160864KB, bw=15376KB/s, iops=3844 , runt= 10462msec
rw512k.log:  write: io=2866.0MB, bw=293449KB/s, iops=573 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
----
rr4k.log:    read : io=1407.8MB, bw=144142KB/s, iops=36035 , runt= 10001msec
rr512k.log:  read : io=34749MB, bw=3474.6MB/s, iops=6949 , runt= 10001msec
rw4k.log:    write: io=309152KB, bw=30912KB/s, iops=7728 , runt= 10001msec
rw512k.log:  write: io=2794.0MB, bw=277611KB/s, iops=542 , runt= 10306msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
----
rr4k.log:    read : io=195952KB, bw=19576KB/s, iops=4893 , runt= 10010msec
rr512k.log:  read : io=36164MB, bw=3616.5MB/s, iops=7232 , runt= 10000msec
rw4k.log:    write: io=185756KB, bw=18574KB/s, iops=4643 , runt= 10001msec
rw512k.log:  write: io=3127.0MB, bw=320077KB/s, iops=625 , runt= 10004msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
----
rr4k.log:    read : io=232576KB, bw=23241KB/s, iops=5810 , runt= 10007msec
rr512k.log:  read : io=36386MB, bw=3638.3MB/s, iops=7276 , runt= 10001msec
rw4k.log:    write: io=134356KB, bw=13009KB/s, iops=3252 , runt= 10328msec
rw512k.log:  write: io=3273.6MB, bw=317882KB/s, iops=620 , runt= 10545msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
----
rr4k.log:    read : io=257672KB, bw=25754KB/s, iops=6438 , runt= 10005msec
rr512k.log:  read : io=34942MB, bw=3493.9MB/s, iops=6987 , runt= 10001msec
rw4k.log:    write: io=203688KB, bw=16299KB/s, iops=4074 , runt= 12497msec
rw512k.log:  write: io=3397.0MB, bw=347818KB/s, iops=679 , runt= 10001msec

6本目まで性能が良いが、そこから徐々に性能が落ち始めるので、RAIDZ2のときは、6本までにしたほうが良さそうだ。

次に、log/cache有りにして測定。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=3000.7MB, bw=307238KB/s, iops=76809 , runt= 10001msec
rr512k.log:  read : io=32933MB, bw=3292.1MB/s, iops=6585 , runt= 10001msec
rw4k.log:    write: io=62364KB, bw=6235.8KB/s, iops=1558 , runt= 10001msec
rw512k.log:  write: io=1689.0MB, bw=165174KB/s, iops=322 , runt= 10471msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=3012.4MB, bw=308462KB/s, iops=77115 , runt= 10000msec
rr512k.log:  read : io=32315MB, bw=3231.2MB/s, iops=6462 , runt= 10001msec
rw4k.log:    write: io=84148KB, bw=7992.8KB/s, iops=1998 , runt= 10528msec
rw512k.log:  write: io=2248.6MB, bw=223453KB/s, iops=436 , runt= 10304msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=2949.4MB, bw=301979KB/s, iops=75494 , runt= 10001msec
rr512k.log:  read : io=35100MB, bw=3509.7MB/s, iops=7019 , runt= 10001msec
rw4k.log:    write: io=95064KB, bw=9425.4KB/s, iops=2356 , runt= 10086msec
rw512k.log:  write: io=2596.6MB, bw=265855KB/s, iops=519 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=2977.2MB, bw=304828KB/s, iops=76206 , runt= 10001msec
rr512k.log:  read : io=34903MB, bw=3489.1MB/s, iops=6979 , runt= 10001msec
rw4k.log:    write: io=104916KB, bw=10009KB/s, iops=2502 , runt= 10482msec
rw512k.log:  write: io=2862.0MB, bw=287125KB/s, iops=560 , runt= 10207msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=2923.5MB, bw=299200KB/s, iops=74800 , runt= 10004msec
rr512k.log:  read : io=35268MB, bw=3526.5MB/s, iops=7052 , runt= 10001msec
rw4k.log:    write: io=113676KB, bw=11366KB/s, iops=2841 , runt= 10001msec
rw512k.log:  write: io=3084.0MB, bw=315770KB/s, iops=616 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=2927.7MB, bw=299702KB/s, iops=74925 , runt= 10001msec
rr512k.log:  read : io=34227MB, bw=3422.4MB/s, iops=6844 , runt= 10001msec
rw4k.log:    write: io=112080KB, bw=11207KB/s, iops=2801 , runt= 10001msec
rw512k.log:  write: io=3249.6MB, bw=332716KB/s, iops=649 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=2984.6MB, bw=305476KB/s, iops=76368 , runt= 10003msec
rr512k.log:  read : io=35715MB, bw=3571.1MB/s, iops=7142 , runt= 10001msec
rw4k.log:    write: io=112520KB, bw=11047KB/s, iops=2761 , runt= 10186msec
rw512k.log:  write: io=2948.0MB, bw=300343KB/s, iops=586 , runt= 10051msec

この場合は、6本以上であっても、性能劣化は余り見られない。cache/logは非常に有効的に聞いているように見える。

結果としては、キャッシュの影響は絶大ですね。。
ディスクの本数にかかわらず、性能は変わりません。ただし、キャッシュのヒットが100%なのでこのような結果ですが、乗らなくなる状態(常に期待は出来ないため)では、先ほどのベンチのような値になるでしょう。

ということで、グラフはそのうちに作成しようかなとおもいまふ。
また、OpenIndianaの環境では、後日。
お酒を飲みながら酔っぱらいの検証でした。

ということで、関連サイトとして、下記のサイトを紹介。

tomocha  『あとで、sataで、raidz2で、4本からどのように変わるか、データを取ろう。わすれてた。』
[ コメントを読む(1) | コメントする ]

[] 横濱家 500円セール

横濱家で三日間限定、全品500円セールをやっていたので、お昼ご飯にラーメン。

ネギチャーシューの餃子とチャーハンのセット。



あっさり目でおいしくいただけました!
最近なぜか豚骨系が体が受け入れれるようになり、おいしくいただけるようになったので(笑)

[ コメントを読む(0) | コメントする ]

[Neta][Other] ENEOSでガソリンを入れようとしたら...

カードを入れたら下記のような画面。。



ライセンスエラー!?

zero  『「カード」センスエラーじゃ…。』
  『ナンセンスといえばいいだけなのに』
tomocha  『カードセンスエラー。センサー。ですね。しつれいいたしましたw。 ナンセンスはいいなぁ。。』
[ コメントを読む(3) | コメントする ]

2012年10月08日(月) [晴れ]

[][遊び] はがくれしょうゆ愛好会@横浜

NAIST方面の集まり。
今回もお誘いいただいたので、参加してきました。

だけど、最近結婚、出産、子供と世帯持ちが増えてきて(うきーっ)参加エントリーしていても、子供が風邪を引いてしまったとかで、なかなか人が集まらないんですね。ドタキャンもそれなりに。
当初の予定の人数で食材を買うと、絶対に余ってしまうと言うのが2年連続で痛感してしまいました。

ちなみに、おいしい物をひたすら食べようよというイベントで、自作から、買ってきた物まで。テーマを決めて楽しむという会で、子供も楽しめるような感じ。


さて、今回はソーセージがテーマです。じゃ、つくってみよ〜!



挽肉のブレンドをコネコネ。



手で暖まらないように、氷水の上にボールを置いて、ひたすら混ぜます。

平行して、腸詰め用の腸を戻して…準備しておきましょう。



コネコネできて、スパイスなど調合出来たら、ソーセージを作成。



つめつめ、腸詰め。



ソーセージの形になってきました。
ねじりましょう。



完成!



さて、こちらは既製品のソーセージ:)

かーっと!



焼き焼き。うん、良い香り。



おさらどーん!うんまー!


ボイルしてー。



やいて〜。ふぁいあー!



ポトフ〜。うまうま。コンソメいいね。



おにぎりも。上手すぎ!激うまー。



ソーセージやきやき。人が減ってノルマに。。。



自作ソーセージのお味は・・・。微妙w。
スパイスが足りないのかなぁ。そして、練り足りなかったようで、ハンバーグのようになってしまいました。残念。ハンバーグと思えばおいしいけど、ソーセージだと思ったら外れですね。。。

良い経験をさせていただきました。たのしかったー。ありがとう!

[ コメントを読む(0) | コメントする ]

2012年10月09日(火) [晴れ]

[] 自然派バイキング わらべ 吉祥寺店P

ちょっくら、お仕事関係で連れて行っていただきました。

家族で大人気のお店で、野菜不足の人にとってはとてもおすすめだとか。
私にもってこいなお店でした。

バイキング形式で、好きな物を食べれるのですが、基本的に野菜がベースのもの。
消化の良い物もおおく、優しい味付けですね。
お肉は余りありません。


カウンター



盛り合わせ



第二弾!


デザート!のはずが、何か違う!?



ディナータイムは1680円です。

自然派バイキング わらべ 吉祥寺店
0422-20-0140
東京都武蔵野市吉祥寺本町1-8-16 F&FビルB1

土日祝日入店受付時間 11:00〜21:30(L.O.21:00)
[ コメントを読む(0) | コメントする ]

[] KALDI のハロウィン

吉祥寺には結構KALDIが多くて、今の時期はハロウィン特集!



可愛かった〜!買わなかったけどw

[ コメントを読む(0) | コメントする ]

2012年10月11日(木) [晴れ]

[Server][Linux][FreeBSD][Internet] さくらインターネット、「さくらのVPS」でマルチリージョン対応を開始

さくらのVPSが大阪と石狩と選べるようになったそうで、さくらのVPSが始まった当初は東京(おそらく東新宿DC)、その後、震災の後は、大阪(堂島)がメインとなっていましたが、今度は、石狩が選択出来るようになったとのこと。

東京からみて、石狩までのレイテンシーは18ms程度。
大阪と比較するとおおよそ2倍程度遅延がありますが、東京から見れば九州と同程度。

ネットワーク的にも、OCN(AS4713)と直接接続しており、既存のさくらのバックボーン(AS9370,9371)と建前上は独立しているので、本当にDRなんでしょう。
内部的にはどうなっているか分かりませんが...


で、そういった条件の石狩が選択出来るようになったので、大阪と石狩、初期ユーザに限るが、東京と石狩といったDRが出来ると思います。

ちなみに、 バックボーンマップを見る限り、大阪とは直接eBGP peerでは接続されていないことになっているので、大阪と東京では、ほぼ完全に独立 *1

していると思われます。

ということで、価格据え置き、初期費用無料で、キャンペーンをやっているようなので、さくらのVPSをこの際もう一ついかがでしょうかw

お申し込みは ここからできます。

ちなみに、サービス提供開始は、10月18日からとのこと。第一号にチャレンジ!

てことで、Ishikariロケーションの識別子は、

www1001ui.sakura.ne.jp(133.242.128.15) 〜 www4480ui.sakura.ne.jp(133.242.135.254)
www1001uj.sakura.ne.jp(133.242.136.15) 〜 www3480uj.sakura.ne.jp(133.242.141.254)

となるとおもわれる!

WHOISで調べた限りでは、2012/09/27 に割り当てがあったので、連続する区間として、133.242.128.0/19 あたりが今回のVPS範囲ではないかと予想出来る。


*1: 組織内の通信はどうかはしりませんがw
HANZUBON  『「大阪(おそらく東新宿DC)」は「東京(おそらく東新宿DC)」じゃないかな〜』
tomocha  『ご指摘ありがとうございます! 書きかけの途中だったので、さくっと修正しました! 』
[ コメントを読む(2) | コメントする ]

[Internet] インターリンクの回線断、トラブルがあったんだが...

昨日、SSHなどが切断され、作業が中断された。
原因を調べたところ、一瞬、回線が切れていた事による物だった。

01:08:37  PPP.006: LCP CLOSING: state is open, closing upper-link, on FastEthernet0/0.1
01:08:37  PPP.002: NCP CLOSING: IPCP state is open, closing upper-link, on FastEthernet0/0.1
01:08:37  IP.021: Interface FastEthernet0/0.1, line protocol down
01:08:37  PPP.006: LCP CLOSING: state is open, closing upper-link, on FastEthernet0/0.1
01:08:37 PPOE.023: PADT packet sent, source 00:30:13:XX:XX:XX, destination 00:90:1a:XX:XX:XX, FastEthernet0/0.1
01:08:37 PPOE.030: Session stop, AccessCT address 00:90:1a:XX:XX:XX, SessionID 2594, FastEthernet0/0.1
01:08:42 PPOE.029: Session start, AccessCT address 00:90:1a:XX:XX:XX, SessionID 1997, FastEthernet0/0.1
01:08:42  PPP.004: LCP OPENING: state is open, opening upper-link, on FastEthernet0/0.1
01:08:42  PPP.001: NCP OPENING: IPCP state is open, opening upper-link, on FastEthernet0/0.1

上記について、インターリンクにBフレッツファミリーで○○県○○市で切断があった。同一回線で他のルータの他ISPのPPPoEは切断されていない。また、フレッツの工事、故障についてもアナウンスが出ていないが、何があったか原因を調べて教えてくれと問い合わせ。問い合わせてみたら、次のような回答だった。

内容を要約すると、朝一に問い合わせを送り、回答があったのは当日中17:16頃。上位回線に確認および接続ログ詳細に調査していると第一報の回答。

翌日15時前に、次のような回答があり、事実が発覚。上位回線(NTTPC/InfoSphere)にて、○○エリアを対象に回線工事が行われていた。それによって、その時間、ご心配をおかけして申し訳ないという回答。心配じゃなくて既存の接続中のSSHセッションが切断されるという事件があったということなのだが。


そのままだと、NTTPCとインターリンクの関係が悪いように見えて仕方がないので(事実は知りませんが)、次のように返信した。

本件について、なぜユーザ(キャリアから御社に対して含む)に対して告知が無かったのか、理由を聞かせてほしい。インターリンク側も把握しているのであれば、上位キャリアに問い合わせる事もなく、すぐに当日中の回答が出来たのではないか。そもそも把握出来ていないということ、上位キャリアに問い合わせて発覚したということは、体制に問題が有るのではないかという指摘をした。今のところ回答待ち。ま、いつものごとく、対応の経緯は公開。

(2012.10.12 追記)

で、本日早めの回答があったが、内容としては、影響範囲を確認し、インターリンクの顧客に影響があると回答があったため、メンテナンス情報に記載したとのこと。
そこまではいいが、事後だったら、それなりの一言はあってもいいんじゃないかと思ったが、気づいていないからいいのか、という感じのいつも通りのしれっと追加されているので、どうかとおもう。

まあ、このあたりは置いておいて、 インターリンク社と上位キャリア(NTTPC)の連絡体制の不備を認め、工事の影響範囲の共有、担当者との協議を重ね、連絡体制の強化を行うと回答。今後はこのようなことがないように対策しますということなので、様子を見てみることにする。

ま、安かろう悪かろうという感じではあるが、ちゃんと受け答えが出来る、調べてくれるので、そこは評価出来るのかなぁと。本当にひどいところだと回答ですらなかったりするからね。 サービスの品質は有る程度は重要だけど、普段の品質はそれなりに良くて満足していても、トラブル発生したとき、対応が曖昧だったり、不満があるとユーザは一気に解約するとおもうが、それなりの対応があれば、様子をみてみようと思うんだろうねぇ。あとはトラブルの頻度にもよるけど。許容範囲ならば、現状維持ってかんじで。

ただ、次回も同じような回答で、同じ事をやると、激怒してもっと晒すかもしれませんw。


κzκz★彡  『(NTTPC/Infosphjere)は(NTTPC/InfoSphere)かな?』
nakacya  『す、すまねぇ・・・・・O,,,,,,rz』
nakacya  『す、すまねぇ・・・・・O,,,,,,rz』
[ コメントを読む(3) | コメントする ]

2012年10月13日() [晴れ]

[] りんごもらった〜!

信州りんごを1箱頂いた!



ワックスが塗っていないので、果実のミツが、じわーっとでてきて、良い香り。



ということで、丸かじり!

[ コメントを読む(0) | コメントする ]

2012年10月14日() [晴れ]

[] 家ラーメン!

おうちラーメンで、北海道、さっぽろ味噌。

さっと、野菜を軽くゆでて、中華鍋で豚バラを炒めて、スープを投入。

一煮立ちしたら、ゆであがった麺にかけてできあがり。




チャーシュー乗せてできあがり。
あっ、大量にあるピーマン入れ忘れたっ。

[ コメントを読む(0) | コメントする ]

[][Life] 冷蔵庫の中が...

駄目な大人の冷蔵庫、冷凍庫の中w。



お酒ばっかり...



ラーメン一式のスープ。



こうやってみて、しかも、?とかの札を立てたら、犯罪とかの証拠写真だなぁw。
ということで、いつでも、辛い好きなラーメンが食べれるのだ〜。

kaz  『このヒンジは、もしかしてシャープのどっちからでも開く奴? オイラのはそれの170リットル型。』
tomocha  『違うと思います〜。SANYOじゃなかったかな。もらい物なのでちょっと詳しく覚えていませんが、両開きにはならないです〜。』
  『こっそり一見さんが通りすがりに突っ込み。 ドアポケットの写真にSHARP SJ-14M-Sって型番が見えてます(^_^;A 分解して組み立て直すと左右開きを入れ替え可能ですー。』
[ コメントを読む(3) | コメントする ]

2012年10月15日(月) [晴れ]

[] ティーヌーン西早稲田本店 トムヤムラーメン

どこに食べに行きたい?と食事をお誘いいただいたので、タイラーメンが食べたい!ということで、トムヤムラーメン。時々食べたくなるんです。
ここのお店の前は、路上パーキングがありますが、20時以降は時間外は休止になり、費用がかからないようです。

前回日記には書きそびれていますが、赤坂店には過去にbugbirdさんに 連れて行っていただいたことが日記に書いています。
ここもおいしかったですね〜。




癖になるねー。結構酸味のある味で、この香草のきいます。中華麺を選ぶと、普通の中華麺なので、なんか物足りない気はしますが、中細ビーフン、極細ビーフン、極太ビーフンと選べます。

ちなみに、毎月16日はト(=10)ム(=6)の日、サービスデーで、タイラーメン、グリーンカレー、ガパオが390円になるそうです。 タイ国ラーメン ティーヌン(トムヤムラーメン発祥の店) - 高田馬場B級グルメが詳しいです!

地図を見ていると、裏にインド大使館があるんですね。。

てくてくとちょっと歩いてみると、西早稲田子育地蔵尊 があったので、撮影。個々は子育て地蔵尊で有名なのかな?そのまま少し歩いたところに、水稲荷神社がありますね。



ティーヌーン西早稲田本店
京都新宿区西早稲田2-18-25 横川ビル 03-3202-1865
平日/土曜/日曜 11:00〜23:00(L.O 22:30)

[ コメントを読む(0) | コメントする ]

2012年10月16日(火) [晴れ]

[] 庄や 飯田橋店 ランチタイム@メンチカツ定食

会社の不健康診断で、飯田橋へ。
前日も別の検査で血を抜かれていたり。
問診票に気になることがたくさん有り、記載。でも、ほとんど放置。

あと、今年1月の結果も一応持って行ったら、こっぴどく言われました…爆
だって、面倒見てくれる医者見つかってないんだもの。じゃ、紹介してくださいといったら、ごめんなさいといわれてしまいました。

血を抜かれて、元気がなかったので、メンチカツを食べ、ランチ。
女性は、ランチメニューはすべて100円引きで、480円だったかな?




味噌汁といっても、豚汁、キャベツ、ご飯おかわり自由で、この値段はとても、とってもお得。
メンチカツも激うまで、最近の好物の一つにメンチカツが入っています。


ということで、メンチカツうま〜!おいしいっ!



食べログ評判もそれなりによし!


とってもお得なランチタイムでした!。

よろこんで 庄や 飯田橋東口店
東京都千代田区飯田橋3-6-6
03-3263-5300
[月〜木・土] 11:30〜24:00 [金] 11:30〜04:00

[ コメントを読む(0) | コメントする ]

[Life] お金が無くて厳しいところろに、差し入れが..

クレジットカードを現金化してしまいました。
ヨドバシで、お買い物したいんだけどいうことで、私のカードで支払いを行い、現金で私が受け取るということで、カードの現金化。運良く私もヨドバシカードを持っていますので、ポイントもためさせていただきました。

帰りに、 博多天神ラーメン 新宿東口店で、豚骨ラーメンを頂きました!
やっぱり、安いね〜。500円。替え玉も無料。




ちなみに新橋とかにもお店がありますね。
あっさり目で少し物足りない感じがしますが、辛口の高菜と紅ショウガで調整しましょう。
ということで、替え玉もしてお腹いっぱい。ごちそうさまでした。

[ コメントを読む(0) | コメントする ]

2012年10月18日(木) [晴れ]

[Server][Linux][FreeBSD][Internet] さくらのVPS マルチリージョン本日開始!

本日開始で、大阪と石狩が選択出来るようになり、2GBプランはキャンペーンにつき、初期費用無料です!
お申し込みはこちらから

大阪と石狩の組み合わせで冗長化などの案件、用途にいかがでしょうか。

なお、収容されるサーバは下記の通りだと思われます。

www1001ui.sakura.ne.jp(133.242.128.15) 〜 www4480ui.sakura.ne.jp(133.242.135.254)
www1001uj.sakura.ne.jp(133.242.136.15) 〜 www3480uj.sakura.ne.jp(133.242.141.254)

[ コメントを読む(0) | コメントする ]

[Network] Software Design 2012年11月号 OpenFlow特集

本雑誌にコラムとして執筆させていただきました。

元々、OpenFlowは実際に構築、運用したことが無く、デモスイッチをさわらさせてもらったり、NEC製の UNIVERGE PF6800を見せてもらったり、と比較的見ることは有りましたが、こんな立場で書いてもいいのかなとずっと悩んでいました。悩んでいたまま、倒れて救急車で運ばれ、今回は執筆断念しよう、無理ですね。という話をしていて、1ヶ月後ぐらいに、ふと、担当の編集者とTwitterで話ししたところ、「まだ大丈夫ですよ。○○日までに出していただければ!」といわれ、3時間ぐらいでドラフトを書き上げメールしました。校正など、何度も最終的には練りましたが、本当にこんなんでいいのかなぁという葛藤のなか、仕上げた一本です。

なので、若干おもしろく、大変そうに書いていますが、実際に聞いてみるとそういう話も多いですし、そういった空気を感じていただければなと思います。

そんなわけで、最初にも書きましたが、実際に構築、運用をしたことがないので、微妙に違っていたり、間違っていたりしてもつっこまずに生暖かく見守ってくださいね。石は投げないでくださいね。おもしろかったらムフフとしてください。
ちなみに、雑誌の 目次は、今週月曜日ぐらいにWebに公開されており、一部の方にはばれてしまいましたが、本日派手に見つかって ネタにされてしまいました。
ていうか、そこまで、いぢらなくても...orz

Twitterなどを見ていても、評価はおもしろかったということなので、一安心して、日記を書いてまったりしています(笑)

あ、ちなみに、イラストは私をイメージして、デザイナーさんに書いていただいた物だそうで、目つきの悪さは私そのものですね(^^) でも、かわいいので私のお気に入りです。かわいかったら、コメントしていってください(笑)ていうか、イラストは「かわいいよー!」 なぜ、スパナなのかというつっこみも有りましたがとある有名ブログに答えが書いてありますので、探してみてください(笑)

購入は こちらから

HLA  『定形運用の為の手順書でもそうなのですが、一番の心配はSDN特化型障害対応エンジニアは、単体でのトラブルシューティングが困難になり、その構成を作成したエンジニアから設計理念/論理物理設計書など相当量の情報を得なければ対応出来なくなってしまう点です。』
tomocha  『そうですね。物理構成から、決めてかかるとおそらくだめで、論理構成が今まで以上に複雑になるので、設計理念、何をしたいか、どういうことを想定したのか、と複数のレイヤーが1枚の絵に重ね合わせないといけないところがおそらく一番大変なんでしょうね。おそらく固定概念をもってかかると、痛い目に遭いそうです。』
[ コメントを読む(2) | コメントする ]

2012年10月19日(金) [晴れ]

[Other] 深夜2時の駅の中

帰り、あほほど電車が遅れて、最寄り駅に着いたら2時前。
一眼レフをもっていたとき、メンテナンスしている方をみかけたので、撮影させていただいたら、元気にピースしてくださいました!
こういう気さくな笑顔いいですね!

[ コメントを読む(0) | コメントする ]

[Neta][Other] かぼちゃ

西小山駅商店街にて、かわいいカボチャが売っていたよ!

ハロウィン近いからだねー!

[ コメントを読む(0) | コメントする ]

2012年10月21日() [晴れ]

[DC] 新日鉄第5データセンターの完成後

先日の日記(6/16 新日鉄第5データセンター@101プロジェクト)で記載した続き。プレスで工事が完了したという情報を聞きつけ、どうなってるのかなぁと思い改めて探してみました。
やっと、きれいになっているという感じですね。天気も良かったし。




見た限り駐車場は5,6台分のスペースと、障害者向けスペースがありました。
さすが老人ホームw

[ コメントを読む(0) | コメントする ]

2012年10月22日(月) [晴れ]

[] 大森 鳥久 @東京 大森

おいしい物があるということでお弁当を買ってきてくださいました!
大森鳥久 7号弁当!
おみやげ、ごちそうさまでしたっ。

まずは写真でレポートするよ!



詰まってる!





鶏の塩焼きはとてもジューシー。

ご飯がいくらあっても足りません!そして、超ヘビー!

竜田揚げは衣がかなり大きめでしょうか。


ググっていたら、こんなサイトを見つけました!

大森鳥久(大森)折詰五号 & 折詰七号

うんうん。 ロケタッチグルメでもとてもポイントが高いのでとってもおすすめです。

ちなみに、7号は、700円です。


大森鳥久
東京都大田区大森北1丁目9-2
03-3761-0100

弁当は早く売り切れてしまうので、朝早めに購入するのが良いでしょう!

rigarash  『大森の鳥久と、蒲田の鳥久は、現在は関係のないお店ですよ。』
tomocha  『おおおお、そうだったのですか。同一の系列だとおもっていました。すみません。 内容を修正しておきます。。。。』
tomocha  『だから、メニューに7号とかなかったのね。。。ずいぶん悩みました。。ありがとうございます。』
[ コメントを読む(3) | コメントする ]

2012年10月24日(水) [晴れ]

[Other] 東京駅丸の内駅舎保存復原

ライトアップには間に合わなかったけど、銀座でごちそうになった後、東京駅まで歩いてみました。

東京駅の撮影は、元々予定外だったということ、偶然一眼レフをもっていたのもあり、撮影。
ただし、三脚は無いので、手持ちで出来る限界の写真です。

次はライトアップ時間中に三脚もっていきたいなぁ。

帰りに大手町まで歩き、撮影しまったのは秘密。ということで、ついでにupしようかしら。

[ コメントを読む(0) | コメントする ]

[DC] 大手町の有名処のDCたち

詳細は差し控えさせていただきますw

κzκz★  『ともちゃさんに伺うことじゃないかもしれませんが、ComSpaceWestってどの辺なんでしょうか?』
tomocha  『知っていたら教えてください。私も知りたいです!』
κzκz★  『やはり…私もDCマニアとして頑張って探してみます(笑)。ありがとうございました−。』
[ コメントを読む(3) | コメントする ]

[] 板前料理 日月火

銀座へディナーにお誘いを頂き、最初は鍋がいいねということで移動してみた物の、満席に付きなかなか入れるところがなく、和食たべたいねということで、連れて行っていただきました。


メニューを見ると、金額にgkbrするようなところでした><



お通し。
蠣だったので食べれず。



お刺身



サラダ



焼き鳥。超うまかったが、高い。
九州・炭火焼創菜料理 うまや@北千住でいただいたのもとてもおいしかったけど、金額見ちゃうとうまや最高!とおもってしまった。



つくね!



産直夏野菜の冷しおでん盛合せ
二人分。
ダシが最後までおいしく頂けて幸せ。



締めのお蕎麦。



わさびがこれほども贅沢に:)
長二郎作。



デザートのアイス




もう、幸せすぎてたまらない。
薄口のダシのきいた味がほっとします。またいけたらいきたいけど、この先何年後かな?



日月火
東京都中央区銀座3-3-1 ZOE銀座6F
03-3538-7788
【平日・祝前日】ランチ11:30-15:00/ディナー17:30-23:30
【土曜】ランチ11:30-17:00/ディナー17:00-23:00
【日曜・祝日】ランチ11:30-17:00/ディナー17:00-22:00

[ コメントを読む(0) | コメントする ]

2012年10月26日(金) [晴れ]

[Internet] インターネットのカタチ―もろさが織り成す粘り強い世界―

Facebookや Twitterで、「極端な女の話をみつかり、あわてて写真に収めた」という話をみて、おもしろい記事を見つけた。そしたら、どうやら私のことをものすごく意識をして記載されているとの情報。



よく読んでみるとAS番号の説明に次のようにある。

インターネットではさまざまな識別番号が使われており、その「番号割り当て」に関しては、複数の組織が同じ番号を持たないように、全体の整合性を保つための組織が存在しています。その中心となっている組織の名前はIANAです。AS番号を取得している団体の代表例は、OCNやBiglobe、So-net、NiftyといったISPです。GoogleやMicrosoftのような企業も独自のAS番号を取得しています。 極端な例として、個人でAS番号を取得する事例もあります。

で、Twitterで話をしていると、 著者のあきみちさんより、次のようなコメント。

@tomocha: 先日出版されたインターネットの本のASのところ、極端な例として個人でAS番号を取得される例もあります、って、私のことを意識されました、、、?それとも、他の3名のことも含みます?汗(すでに内1つは返却すみですが)

@geekpage: 意識しないわけないじゃないっすか!(笑

やはり意識されていたようだ。。。本のネタにまで登場してしまったという事実が発覚しました。
結構おもしろい本なので、興味のある方は、買ってみて読んでみてくださいね!

本文引用については念のため許諾済み。

[ コメントを読む(0) | コメントする ]

2012年10月28日() [晴れ]

[Diary][Neta] NTTコミュニケーションズ 第四法人営業本部というところから怪しげなアクセス

日記のアクセスログを久しぶりに見ていたら、怪しげなアクセスがあったので晒してみます。

[2012/10/26:16:26:38 +0900] 210.160.194.73 "/diary/?20120601"
  "http://tomocha.net/notify-Keikoku-Notify?aHR0cDovL3RvbW9jaGEubmV0L2RpYXJ5Lz8yMDEyMDYwMQ=%3D"
  "Mozilla/5.0 (Windows NT 5.1; rv:9.0.1) Gecko/20100101 Firefox/9.0.1"

[2012/10/19:09:29:08 +0900] 210.160.194.73 "/diary/?20110612"   
  "http://tomocha.net/notify-Keikoku-Notify?aHR0cDovL3RvbW9jaGEubmV0L2RpYXJ5Lz8yMDExMDYxMg=%3D"
  "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.4 (KHTML, like Gecko) Chrome/22.0.1229.94 Safari/537.4"

ターゲットとなるページは下記の通り。

後ろのURLはリファラなのですが、BASE64デコードをすると、おもしろいですね。というか、つまんなかったですね。
興味のある方はデコードしてみてください。

本日のネタはオチ無し。

[ コメントを読む(0) | コメントする ]

[Comp] HP DL360G6 CPU外してみた

24時間365日動作させるんだけど、CPU2個は今の段階ではいらないので、消費電力削減の為、取り外してみました。

CPUソケットを保護する為のカバーが無かったので、ちょこっと自作。

静電防止シートをソケットのサイズにカットし、養生テープで固定。

今のところ元気にうごいておりますw。

えっちふじた  『CPU、いっこはずしたんですね。はすしたCPUのスペックは、どんなものだったんです? 』
tomocha  『過去日記参照w。E5504なり。』
えっちふじた  『了解です。わざわざすみません』
[ コメントを読む(3) | コメントする ]

[] ジョリーパスタ

ちょっとストレージで遊んでいて、お昼ご飯にパスタということで、ジョリーパスタに逝ってみました。
かなり久々です。

ピッツァ



パスタ2種類!

Newベーコンとチーズのトマトソース



パンチェッタのペペロンチーノ



ペペロンチーノが一番おいしかった〜..おなかいっぱい。

[ コメントを読む(0) | コメントする ]

[] WOODSTOCK ハンバーグ@東小金井

このあたりでは有名でおいしいハンバーグ。

無性に食べたくなりますね。


ということで、ずどーんっ!





熱々に熱したプレートの上で、カットして、焼きながら食べます。



うんまー!
今回はガーリックソース!


ということで、お店の雰囲気を少し。


外の入り口。



なにやらメニューが!



さらにはいると、メニューが!



階段を上がります!



階段をあがって店内に入ると..



席に着くと、プレートを置くためのもの。(名前わかんない><)



ということで、メニュー!



これだけでした。



またいきたいおすすめのお店。


WOODSTOCK ウッドストック
東京都小金井市関野町2-1-4
042-384-4188
五日市街道沿いで、車かタクシーでいかないとつらいかも。バスは近くに無しかな?

11:00〜15:00(L.O.14:30)
17:30〜23:00(L.O.22:00)
ランチ 11:30〜14:00

ランチ営業、夜10時以降入店可、日曜営業

[ コメントを読む(0) | コメントする ]

2012年10月29日(月) [晴れ]

[Neta][IPv6] 食べログがIPv6対応?

先ほど、食べログを見ていて、 WorldIPv6Launchのログを掲げていました。

だが、ブラウザでは、IPv6アドレスが表示されずにあれ?とおもって、DNSを引いてみたところ、、

$ host tabelog.com
tabelog.com has address 203.183.102.137
tabelog.com mail is handled by 10 mx.securemx.jp.

となり、AAAAが引けず。

調べてみると、どうやら、Googleの広告らしい。。。これって、どうなのよ?超紛らわしいんですけど。

[ コメントを読む(0) | コメントする ]

[Neta][Server] megalodon がw

アクセスログを見ていたら変なのがあったので、アクセスしてみたら次のような画面。

エラーの内容は下記の通りw

ERROR /home/megalodon_program/common/classes/DBConnector.php:13:mysql_connect()
[function.mysql-connect]: Can't connect to local MySQL server through socket
'/var/run/mysqld/mysqld.sock' (2)

/home/megalodon_program/ あれ? megalodon?魚拓?w

ということで、名前解決をしてみましたw

$ host megalodon.jp
megalodon.jp has address 219.94.255.189
megalodon.jp has address 219.94.248.181

$ host www5167ue.sakura.ne.jp
www5167ue.sakura.ne.jp has address 219.94.248.181

あーあー。同じIPだ(w

ということで、エラーページを魚拓ってみましたw

おもしろすぎ(笑)
MySQLが落ちちゃったのか...
コネクション数オーバーだったら、Too many connectionsデスよね。確か。
変な落ち方でもして、MySQLがクラッシュしたのかしら。
さくらインターネットの障害を見る限り、直近ではなかったので、別の問題でしょうねぇ。

ということで、私のページにそのIPアドレスがあったということは、魚拓で取られたわけで、お返しに ウェブ魚拓で取り返してみました:)

[ コメントを読む(0) | コメントする ]

[Diary] ウェブ魚拓。。。

調べてみると、ウェブ魚拓に たくさん撮られているなぁ。。

[ コメントを読む(0) | コメントする ]

[] 新橋の変わったお店

TechLIONスタッフミーティングの後の懇親会。
今回は法林さん行きつけのお店らしく、日本人じゃない人がやっているところ。

でも、注文するのは、普通の居酒屋というか、中華というか。。
韓国系のお店かなぁ?とおもったのですが。

ぎんなん。



ベーコン!



豚キムチ。



モツ炒め。辛味噌だったぁ〜!ご飯がほしくなりました!



野菜炒め


チャーハン。



マッコリ。



お店の諸情報はすみません、わかりませんでした。。
味はうんまかったー!

帰りの東京駅にて。
2番線乗り場 豊田駅 22:56が先発で、1番線の高尾行き 22:35が後発?どういうこと??

[ コメントを読む(0) | コメントする ]

2012年10月30日(火) [晴れ]

[] 南雲 @虎ノ門

共同通信会館ビル地下一階の中華?の味噌タンメンがお気に入り。
最近は大盛りサービスなので、たまにニンニクどかっと、泥ラー油どかっといれて食べたくなります!

ということで、やってしまいました。



うんまかった〜。

南雲 (ナグモ)
東京都港区虎ノ門2-2-5 共同通信会館 B1F
03-3583-8864

[ コメントを読む(0) | コメントする ]

[] 御旦孤 @東京 虎ノ門店

ボスに誘われて、寿司。



ちょっとあげすぎではないか。



ふぐ。



ふぐの唐揚げ。



白身魚みたいなかんじ?ふぐって白身魚だっけ。
味見はしてみたけどやっぱりちょっと。。

御旦孤 虎ノ門店
東京都港区虎ノ門2-2-1 JTビル 1F
03-3568-1135

[ コメントを読む(0) | コメントする ]

2012年10月31日(水) [晴れ]

[Server][SPAM] 株式会社バンダイロジパルから、大量の不正アクセス

 Protocol              Inner           Destination   Masquerade  TTL(second)
   TCP      192.168.x.x.3389   211.126.203.19.4578         3389          299
   TCP      192.168.x.x.3389   211.126.203.19.3525         3389           59
   TCP      192.168.x.x.3389   211.126.203.19.4503         3389           57

といった、NATログが大量にあった。元々、Windowsでターミナルサーバを見たら、大量にセッションが発行されていたので、確認してみると、上記のログ。

調べてみると、上記のIPアドレスは回の通り。

$ host 211.126.203.19
19.203.126.211.in-addr.arpa is an alias for 19.16h.203.126.211.in-addr.arpa.
19.16h.203.126.211.in-addr.arpa domain name pointer lismweb.blpinc.com.

$ jwhois 211.126.203.19
a. [IPネットワークアドレス]     211.126.203.16/28
b. [ネットワーク名]             BLPINC-NET01
f. [組織名]                     株式会社バンダイロジパル

会社は 株式会社バンダイロジパルというところのようだ。迷惑なので、あら仕上げ。

[ コメントを読む(0) | コメントする ]

[Diary][Life] 最近感じて思うこと

自分が関わっていていうのもなんやけど、自分が使いたい、すごい、と思えるようなものじゃないと、なかなか人に薦められませんよね。その辺の葛藤、バランスとの兼ね合いが非常に重要なんだけども。バランスが悪いとね。

てことで、どうやったら自信を持って薦めれるものが作れるんだろうか。ずっと悩んでいるし、理解してもらえなくて悲しんでいる。多少なりともがんばろうとするといろんな意味で、費用はかかってしまうんだけど、気に入ってもらえるような形を実現すると、それ以上の集客効果もあるわけで、顧客獲得にもつながるわけですよ。そこをうまく戦略的にやるのが経営者層だとおもうんです。その上で、費用対効果については検討されればいいんだけど。あんまり偉そうなことはいえるような立場じゃ全くないけど、理解されないって言うか。上手にやると、無駄なコストが削減できるのに、目先のことしか考えれない。
で、とあるプロダクトを作っている知り合いにに聞いたことがあるんだけど、「自分が作っているサービス自分で使いたいと思います?」「人に勧めたいと思います?」と聞いたことがあって、使いたいとも思わないし興味もないと言ってる人がいて、そのシステムをみて、いろいろとやばい。正直、使いたくないというのが本音。ユーザとしても、構成を聞いてもね。

自分自身が自信を持って使ってみてください、みてくださいっていう人のサービスは面白いし、工夫もある。技術だけじゃない他の物もあったりするんです。一方、消極的な人が作ったものは、正直できたものを見ても使いたいと思わないんですよね。そして、意図しない何かがあるですよね。システムを理解しようとしていないというか、なんか上手に表現出来ないけれども。的を得ていないというか。中途半端というか。動けばいいや的な。
こういうのは外国人プログラマ(中国とかインドとか?文化の違いを含め)でも同じようなことっていえるのかしら?価値観の違いもあるでしょうし。

で、そういったモチベーション、何かをやり遂げようとあがいて作ったシステムは予算、スケジュールとの兼ね合いがあり、妥協した点があったとしても、○○があって、苦労したけどちょっとなんともならなかったんです。でも、ちゃんとここまで実装出来てるし、十分使えますよ。ぐらいいえるような状況じゃなければ、利用者も満足しないし、自身をもって薦めることも出来ない。それができると、本当に素晴らしいとおもうし。そういう環境にならない職場は正直腐ってると思うんですよ。やろうとしていることを含めて、身の丈にあってないというか。 てことで、私は超モチベーション低下気味で、自分が関わったものは正直決して人に薦められる環境じゃないかな。私が求めている何かと違うものを会社は求めているわけで。そのシステムが一般的にある当たり前のことを普通に実装して、プラスαのなにかをしたいなあと、そんな事を考えている日々でした。。。

(追記)

ちゃんとしたものが出来れば、ちゃんと人はつくと思うんですよね。顧客も。それができないといつまでたっても三流以下にぢかなんないだろうし、利益も産まないと。で、問題ばかりおこると。それだったら、もう少しがんばって、ちゃんと動く物をつくって、顧客を確実は無理だけれども、気に入ってもらえるような物をつくらないと、いつまでたっても売れない。コストだけかかってしまう。上手にやって、うまくビジネスになるといいんだけど、安売り時代だからこそ、バランスと兼ね合いが重要な訳ですよ。そこそこちゃんとつかえて、満足すれば、ちゃんとビジネスとしても成り立つと思うんですよね。というわけで、私はそろそろ、いろんなもんが限界にきてて真面目に潮時かなあ。精神的にも。まあ、会社にあったがんばり方をするか、そこまで頑張らなくても他ではもっといいのありそうだし、そう思う私はいまの会社ではきっと、オーバースペックなんだろうなあ。それが気にならない人はそれはそれで幸せなんだろうね。

[ コメントを読む(0) | コメントする ]

Diary for 19 day(s)
Powered by hns HyperNikkiSystem Project




(c) Copyright 1998-2014 tomocha. All rights reserved.