【Storage】RAIDあれこれ 
前回から「いかに速いファイル置き場を作るか」という目的を達成すべく色々実験してみました。そのせいで数字多いよ!

まずはUbuntu10で実験。

root@1:/# uname -a
Linux 1 2.6.32-24-server #39-Ubuntu SMP Wed Jul 28 06:21:40 UTC 2010 x86_64 GNU/Linux

マシンはいつものです。
product: TYAN-Toledo-i3210W-i3200R-S5220
product: Intel(R) Core(TM)2 Quad CPU @ 2.40GHz
MemTotal: 4048444 kB
特に断りがない限りファイルシステムはmkfs.ext4で作成。ベンチ方法は/dev/zeroからddで書き込み。今思ったらシーケンシャルW/Rしかみてないですね。
Bonnie++使うべきだったんじゃねと思うけど参考値程度に

RAID0




root@1:/# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid0 sde1[3] sdb1[2] sda1[1] sdc1[0]
156246528 blocks 256k chunks


書き込み
root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 15.351 s, 273 MB/s

root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 16.567 s, 253 MB/s

そのときの負荷

CPU | sys 41% | user 0% | irq 1% | idle 142% | wait 216% |
cpu | sys 29% | user 0% | irq 0% | idle 19% | cpu002 w 52% |
cpu | sys 12% | user 0% | irq 0% | idle 4% | cpu001 w 84% |
cpu | sys 1% | user 0% | irq 1% | idle 0% | cpu000 w 97% |
CPL | avg1 0.77 | avg5 0.89 | avg15 0.73 | csw 1684 | intr 3377 |


読み込み
root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 15.1826 s, 276 MB/s

root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 16.7144 s, 251 MB/s



負荷
CPU | sys 20% | user 0% | irq 0% | idle 289% | wait 91% |
cpu | sys 14% | user 0% | irq 0% | idle 0% | cpu002 w 86% |
cpu | sys 4% | user 0% | irq 0% | idle 96% | cpu001 w 0% |
cpu | sys 1% | user 0% | irq 0% | idle 99% | cpu000 w 0% |


まずmdadmでRAID0ですが、RAID0はさすがに読み書き速いです。ちょっと古いドライブなので外周で読み書き70MB/sec程度なのですが、ドライブを追加すればそれだけリニアに速くなりました。
が、アレイの中の1ドライブでもFailしたらすべてのデータがさようならは怖すぎるので実用的ではないです



RAID1




root@1:/# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sde1[3] sdb1[2] sda1[1] sdc1[0]
39061376 blocks [4/4] [UUUU]


書き込み

root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 60.178 s, 69.7 MB/s

root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 62.0388 s, 67.6 MB/s


そのときの負荷
CPU | sys 23% | user 0% | irq 2% | idle 179% | wait 195% |
cpu | sys 1% | user 0% | irq 0% | idle 92% | cpu003 w 6% |
cpu | sys 4% | user 0% | irq 2% | idle 0% | cpu000 w 94% |
cpu | sys 12% | user 0% | irq 0% | idle 55% | cpu002 w 33% |
cpu | sys 5% | user 0% | irq 0% | idle 41% | cpu001 w 53% |


読み込み
root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 62.0388 s, 67.6 MB/s

root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 63.6339 s, 65.9 MB/s


そのときの負荷
CPU | sys 7% | user 0% | irq 0% | idle 303% | wait 90% |
cpu | sys 5% | user 0% | irq 0% | idle 0% | cpu001 w 95% |
cpu | sys 1% | user 0% | irq 0% | idle 99% | cpu000 w 0% |
cpu | sys 1% | user 0% | irq 0% | idle 99% | cpu002 w 0% |
CPL | avg1 1.09 | avg5 1.32 | avg15 1.06 | csw 5471 | intr 3396 |
MEM | tot 3.9G | free 31.2M | cache 3.6G | buff 3.1M | slab 80.0M |
SWP | tot 0.0M | free 0.0M | | vmcom 402.1M | vmlim 1.9G |
PAG | scan 43008 | stall 0 | | swin 0 | swout 0 |
DSK | sdc | busy 88% | read 1289 | write 0 | avio 2 ms |
DSK | sda | busy 7% | read 100 | write 0 | avio 2 ms |


RAID1では1ドライブ分のスループットという予想通りな結果になりました。4ドライブ使っても読みの時は1ドライブしか仕事していないという。まあ冗長性に関しては最強だと思います


RAID5




md2 : active raid5 sde1[3] sdb1[2] sda1[1] sdc1[0]
117183744 blocks level 5, 256k chunk, algorithm 2 [4/4] [UUUU]


書き込み
root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 38.2853 s, 110 MB/s

root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 46.0981 s, 91.0 MB/s

そのときの負荷
CPU | sys 52% | user 0% | irq 3% | idle 257% | wait 88% |
cpu | sys 16% | user 0% | irq 0% | idle 77% | cpu002 w 8% |
cpu | sys 17% | user 0% | irq 0% | idle 81% | cpu001 w 3% |
cpu | sys 9% | user 0% | irq 3% | idle 33% | cpu000 w 55% |
cpu | sys 11% | user 0% | irq 0% | idle 65% | cpu003 w 24% |


読み込み

root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 25.6145 s, 164 MB/s

root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 26.0037 s, 161 MB/s


負荷
CPU | sys 20% | user 0% | irq 0% | idle 289% | wait 91% |
cpu | sys 14% | user 0% | irq 0% | idle 0% | cpu002 w 86% |
cpu | sys 4% | user 0% | irq 0% | idle 96% | cpu001 w 0% |
cpu | sys 1% | user 0% | irq 0% | idle 99% | cpu000 w 0% |


RAID5ですが、正直もっと書き込みが遅くなると思っていたのにディスク単体より速くなりました。パリティー計算さえなければストライピングですからね。
というか下手なHWコントローラー使うよりCPUパワーでブン回した方が速いですね…。
リビルドは大体40Gのドライブを-fして-aすると15分くらいでした


RAID6



root@1:# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid6 sde1[3] sdb1[2] sdc1[1] sda1[0]
78122496 blocks level 6, 256k chunk, algorithm 2 [4/4] [UUUU]

書き込み
root@1:# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 55.1364 s, 76.1 MB/s
root@1:/home/owner# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 59.1087 s, 71.0 MB/s


負荷
CPU | sys 44% | user 0% | irq 1% | idle 249% | wait 107% |
cpu | sys 17% | user 0% | irq 0% | idle 80% | cpu002 w 3% |
cpu | sys 9% | user 0% | irq 0% | idle 9% | cpu000 w 81% |
cpu | sys 11% | user 0% | irq 0% | idle 86% | cpu003 w 3% |
cpu | sys 6% | user 0% | irq 0% | idle 72% | cpu001 w 22% |


読み込み
root@1:# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 29.0997 s, 144 MB/s


負荷
CPU | sys 12% | user 0% | irq 0% | idle 291% | wait 96% |
cpu | sys 3% | user 0% | irq 0% | idle 97% | cpu001 w 0% |
cpu | sys 8% | user 0% | irq 0% | idle 0% | cpu002 w 92% |
cpu | sys 0% | user 0% | irq 0% | idle 99% | cpu003 w 0% |
cpu | sys 0% | user 0% | irq 0% | idle 99% | cpu000 w 0% |


冗長性

root@1:# mdadm -f /dev/md2 /dev/sdc1 /dev/sde1
mdadm: set /dev/sdc1 faulty in /dev/md2
mdadm: set /dev/sde1 faulty in /dev/md2

root@1:# mdadm -r /dev/md2 /dev/sdc1 /dev/sde1
mdadm: hot removed /dev/sdc1
mdadm: hot removed /dev/sde1

root@1:/# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid6 sdb1[2] sda1[0]
78122496 blocks level 6, 256k chunk, algorithm 2 [4/2] [U_U_]


適当に転送した50GくらいのファイルはSambaからロストしていませんでした。
違うドライブをFailにしてみる

root@1:# mdadm -a /dev/md2 /dev/sdc1 /dev/sde1
mdadm: re-added /dev/sdc1
mdadm: re-added /dev/sde1
ビルドが完了してから
root@1:/# mdadm -f /dev/md2 /dev/sdc1 /dev/sda1
mdadm: set /dev/sdc1 faulty in /dev/md2
mdadm: set /dev/sda1 faulty in /dev/md2

root@1:/# mdadm -r /dev/md2 /dev/sdc1 /dev/sda1
mdadm: hot removed /dev/sdc1
mdadm: hot removed /dev/sda1

root@1:/# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid6 sde1[3] sdb1[2]
78122496 blocks level 6, 256k chunk, algorithm 2 [4/2] [__UU]


これも残ってました。

しかし、読み込みはいいとして書き込みはやはり速度は落ちますね。単体よりは若干速いですが。
あとアレイの再計算と初期化に時間がかかりすぎます。40G*4ドライブ程度の容量でリビルドに30分。もし2T*4で組んだとしたら…

30 minute * 51.2(2T/40G) = 25.6 hour

( ゚д゚ )

しかもその間ドライブはリビルドで
DSK | sdc | busy 80% | read 538 | write 271 | avio 3 ms |
DSK | sde | busy 80% | read 534 | write 269 | avio 3 ms |
DSK | sdb | busy 37% | read 555 | write 142 | avio 1 ms |
DSK | sda | busy 35% | read 548 | write 130 | avio 1 ms |


というゴリゴリとアクセスしている状態。これが1日続いたらその間にほかのドライブが壊れてもおかしくないような…


RAID10




書き込み
root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 30.0364 s, 140 MB/s

root@1:/# dd if=/dev/zero of=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 31.9872 s, 131 MB/s


負荷
PRC | sys 0.69s | user 0.02s | #proc 141 | #zombie 0 | #exit 0 |
CPU | sys 24% | user 0% | irq 3% | idle 212% | wait 161% |
cpu | sys 3% | user 0% | irq 0% | idle 97% | cpu003 w 0% |
cpu | sys 11% | user 0% | irq 3% | idle 2% | cpu002 w 84% |
cpu | sys 6% | user 0% | irq 0% | idle 84% | cpu001 w 10% |
cpu | sys 3% | user 0% | irq 0% | idle 40% | cpu000 w 57% |

読み込み
root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 31.9915 s, 131 MB/s

root@1:/# dd of=/dev/null if=/smb/4G.img bs=1M count=4000
4000+0 records in
4000+0 records out
4194304000 bytes (4.2 GB) copied, 32.2236 s, 130 MB/s


負荷
CPU | sys 11% | user 0% | irq 1% | idle 294% | wait 95% |
cpu | sys 8% | user 0% | irq 0% | idle 0% | cpu002 w 92% |
cpu | sys 2% | user 0% | irq 1% | idle 97% | cpu003 w 0% |
cpu | sys 1% | user 0% | irq 0% | idle 99% | cpu000 w 0% |


スループットはほぼRAID1の時の2倍なのでもっともな動きだと思います。
ビルドにも10分程度。2Tで大体5時間程度?

気になったのがRAUD10でのデータの冗長性。理論でいえば2つのRAID1のアレイをストライプするので、データは

MIRROR1 MIRROR2
sda sdb sdc sdd
data1 data1 data2 data2
data3 data3 data4 data4
data5 data5 data6 data6


こうなると思うのですが…。

と思ったら実際その通りだった
http://d.hatena.ne.jp/BlueSkyDetector/2 ... 1212936771

というかRAID10って2台で組むと読みをストライプするRAID1になるのw
http://www.togakushi.zyns.com/modules/w ... x.php?p=54

つまり、違うデータを持ったドライブが2台死ぬ分には大丈夫だけど、同じデータを持ったドライブが同時に2個死んだら終了という。
6台だと違うデータを持ったドライブなら同時に3台まで平気だけど、やっぱり同じデータを持ったドライブが2台死んだら終了ですね

4台以上でやるときに読みは2台でActiveとbackupになり、2台目には負荷が掛からないはずなので読みが多いところでは2台が同時に壊れる可能性は低いと思います。
しかし書き込みが多く入るような場所だと同じ負荷がすべてのドライブに掛かってしまうので同時に壊れる可能性は高いと思います

パフォーマンスは上がりますがRAID6のように「どのドライブでも2個壊れて平気」とはいかないので難しいところです。


mdadmではなくてIntel Rapid Storageではどう動くのか?というのも気になったのでちょっと試してみました。実験の合間合間のリビルドの時間を使って動画を作ってみました。

Get the Flash Player to see this player.

作業BGMに定評のあるKOKIA


結果を見ると
p0 p1 p2 p3
1 1 2 2
3 3 4 4

という感じでデータを持っているようです。Intel Rapid StorageでもRAID 10の動きは同じようです。




色々試したまとめ
ぶっちぎりたいならRAID0だけど物置には怖くて使えない
耐障害性を持たせるならRAID6がいいけどパフォーマンス(特に書きとリビルド)に問題あり
遅いと思ってたRAID5はCPUパワーがあれば速い。容量も一番効率よく使える。けど2台同時に死んだら問答無用で終了
パフォーマンスとある程度の耐障害性を持たせるならRAID10がいいけど、運悪く同じデータを持ったドライブが2個死んだら終了


この中だと個人的にはRAID10がいいんじゃないかなと思うのでこれを使う方向で考えてみます

[ コメントを書く ] ( 1824 回表示 )   |  このエントリーのURL  |  $star_image$star_image$star_image$star_image$star_image ( 3 / 1722 )  |  
【その他】ファイル置き場どうしよう 
と言うエントリを書いて投稿しようとしたら書くのに時間をかけすぎてログインセッションが切れててあぼんした!FUCK!!!!!!!!!

同じ文章を書く気力がないので要約

・メインマシンが不安定だと思ったらメモリが最初から2枚死んでた




・Geilェ…

・抜いたら安定した

・ある程度メインマシンが落ち着いてきたので前々からどうにかしたいと思っていたファイル置き場の改訂に着手しよう

・今ファイルがサブマシンとバックアップサーバーでそれぞれバラバラになっているので一元化したい

・7からsmbやCIFS rev2なドライブにつなぐとXPの時のような遅さがないのでサブマシンも7にして必要なもの以外ファイル鯖に投げよう

・バックアップサーバーにつかってるTP I45のNICが蟹なせいで長時間転送すると熱くなりすぎるのか接続が切れることがある

・信頼のIntel 1000MT Dualport

・ただし元々PCI-Xな板なのでPCIで使うと700Mbps程度まで落ちる

・蟹の調子かいいと900Mbps以上でるので確実にボトルネックになっている

・ここにきてサーバー向けな板が色々あるのでこの際変えよう

・どうせだからOSも変えよう

・Supermicro X7DVL Xeon 5440x2 Mem12G→言い分ないけどファイル置き場だけに使うにはオーバースペック、FB-DIMMが結構熱くなるのでこれに気をつけないとまずい

・TYAN-Toledo-i3210W-i3200R-S5220 E5200 Mem8G→ファイル置き場にはちょうどいい構成、RS232ももっているのでホストのネットワーク設定を間違えてSSHが使えなくなってもVPNが生きている限りサブマシンからコンソールログインできる

・ASUS P5K-WS 構成同上→PCI-Xを持っているのでIYHしたはいいけどどこに配置しようか悩んで実験機なう、ただPCI-Xは速いしOC耐性も高いので使い道はある

・板はとりあえずHDD買って本番稼働前に決めればいいとして、それまでにどのOSを使おうか決めよう

・FreeNAS,ubuntu,WinServer2008R2を試してみた
・板はX7DVLでOS HDDとデータ用HDD2台を使って実験
・転送先はメインマシンでHDD3台使ってRAID0のディスクへ転送
・小さなファイルだとメモリにキャッシュされてしまうので5Gのゴミデータを作り転送

FreeNAS


・WebUIで簡単管理、信頼のUNIX、定期報告をGmailへメールするのも簡単。

・ZFSを使ってスナップショット管理もできる。使ったことないけど。

・RAID0を組んだドライブを共有にかけてsmbで転送すると何故かDLが80MB/sec程度なのに対しULが120MB/sec出る

・ただし同時に複数台のマシンからアクセスすると先客が終わるまで転送速度が2MB/sec程度になり、先客が終わると上の速度に戻る。UFSかUNIX版smbの仕様?

・RAID1にすると書き込みがCIFS越しで4-50MB/sec位まで落ちる。dd if=/dev/zero of=/mnt/RAID1/2G.img bs=1M count=2000 とかでもその程度なのでUFSかパリティー計算がネックになってる?

・ディスク単体ではUFSで60MB/sec出る。


Ubuntu10



・Linuxなのでパッケージがたくさん、EXT4は速い、使い慣れてる。

・GUIはないけどCUIがよくできてるのでSSHやRS232のコンソールログイン時に都合がいい。

・smbとmdadm raid0で上り下りともに100MB/sec位出る

・BtrFSやNILFSも面白そう

・RAID1でもディスク単体の時とほぼ変わらない70MB/sec位出る

・必要なのはググる気力ぐらい?

・欠点はLinux全般に言えることとしてボードのドライバがたまに見つからないくらい?



WinServer2008R2


某所で学術用途でDLできるので試してみた

・さすがWindows同士、CIFSでGbEの上限に近い120MB/sec位が安定して出る

・管理するときにいちいちリモートデスク使わないといけないのがだるい

・sntpを使えばある程度はステータス管理が楽になる

・RAIDボードによっては設定専用WebUIを持ってるのがあるのでそういうのがあれば楽

・Windows(笑)という偏見


まあFTP使えばRAID0を組んだいずれのシステムでも120MB/sec位出るのでそれを使ってもいいのですが、個人がLANで使うときはCIFSが一番楽なのでこれの速度が出るのが今回のシステムでは重要です。

後はRAIDのテストも色々したのですが長くなるので分割します。

[ コメントを書く ] ( 1496 回表示 )   |  このエントリーのURL  |  $star_image$star_image$star_image$star_image$star_image ( 3 / 1751 )  |  
【その他】トラブルが止まらない 
この鯖関連

久々にブログ書こうかと思ったらなぜか鯖につながらない→FTPなどはつながる→エラーログをたどったら何かをaptでインスコした際にphpのバージョンが上がりeacceleratorが適合しないといわれてた→makeしてインスコするも今度は
eAccelerator: Could not allocate 134217728 bytes, the maximum size the kernel allows is 33554432 bytes. Lower the amount of memory request or increase the limit in /proc/sys/kernel/shmmax.
と言われ最大共有メモリの上限を増やす→稼働



サブマシン

MB変えたらおそらくIntel prosetのアグリケートドライバのせいでネットワークがバグい
Prosetがアンインスコできない、インターネットにつながるのにローカルのほかの機器につながらないというよくわからない事態に
そのうちOS入れ直し



メインマシン

Windows7 64bitでHHKレイアウトファイルが使えない
@がpの横になるなんて…
英字配列にしたら今度は日本語入力ができなくなった
Alt+`でもできますが、いつもCtrl+無変換で入力切り替えをしていたので無変換を認識できないとだめという
仕方ないのでRemapkeyでそれぞれ入れ替え

kxASIOドライバを認識できない
kxドライバが64bit対応キタコレと思っていたらドライバそのものが動いてもASIOが動かない
ASIO4ALLだと使用している間デバイスをロックするので使いたくないと言うのがあったのですが、メインサウンドアウトプットをkx0/1にしてASIOがロックするデバイスをkx5/6だけにすることにより何とか回避
つか音制御周り変わりすぎて何が何だかわからなかったという

というかそもそも7が使いづらい
いろいろ苦労してbblean導入


まだ書き尽くすのが面倒なほどいろいろあったけど僕はもう疲れたよパトラッシュ…


[ コメントを書く ] ( 1841 回表示 )   |  このエントリーのURL  |  $star_image$star_image$star_image$star_image$star_image ( 3 / 1740 )  |  
【PC】サブマシンが死んだ 
メインマシン入れ替えてるときにケーブルに足を引っかけて抜いてしまい、それが原因かサブマシンのMBが起動不能になりましたw
MBに関しては数えたらATX6+mATX4枚あったので換えには困らないのですが、ケースに入れるというのが非常に面倒で気力が…。というか抜くのでもずいぶん苦労しました
ケースを動かせればいいのですが現状それは無理に等しいので、かなり狭い作業領域しか確保できなくて腰が痛いです。こういう時に自分は小さくてよかったと思いますがw

メインマシンの環境が変わったせいでパーツが総崩れしてddrメモリが2G*4枚と1G*2枚余りました…。



このままだとサブマシンがそのまま前のメインマシンになりそうです

という文章をスマホから書いてみるテスト

[ コメントを書く ] ( 1107 回表示 )   |  このエントリーのURL  |  $star_image$star_image$star_image$star_image$star_image ( 3 / 1722 )  |  
【Mobile】IS02を修理に出した 
そしたら電池以外新品になって帰ってきたという




ディスプレイに深い傷がついてそれをどうにかしたいなと思っていたので普通にうれしいです。
今度はそうならないようにしっかり保護フィルムを貼っておきました。IS02用のフィルムはアキヨドにもなかったので、PSP用のフィルムが丁度同じくらい(若干小さい)なのでそれで代用しました。

教訓として、スライドのレールの剛性が弱いので、今度はズボンのポケットに入れたままケツで潰さないように気をつけるべきですね。

ネックストラップも電池の裏蓋に無理矢理通せば大きな負荷がかからない限り何とか使えることに気がついたので、今度からはこれを活用していこうと思います。修理に出せば確実に新しくなって帰ってくるという保証があるならぞんざいに扱ってもいいと言えばいいですが、そのたびに10日間も待っているのはやはり面倒なので。

しかし、12日間かかったあげく新品と交換というのは、がんばって直そうとしたけど直らなくて交換したのか、元々やる気がなくて新品に交換したのか…。
後者だったら4日もあれば済むと思うんですが。まあ新品の筐体になってもTrueImage代替品が元々入ってるので、SDなどにあらかじめバックアップをとっておけば、ものの5分で前の機種の環境を復元できるのでいいですけどね。


そして動画編集時にそろそろE8400の限界が見えてきたのでマシン環境を新しくしようと思います。





とりあえずシステムの安定性やらOSの挙動やらを見たいのでメインマシン本格移行はもっと後になりそうですが…。

あとその他のマシンのリプレースも入るのでもしかしたら一時的に鯖に繋がらなくなることもあるかもしれません。現状この鯖のリプレース予定はないですが。

[ コメントを書く ] ( 1300 回表示 )   |  このエントリーのURL  |  $star_image$star_image$star_image$star_image$star_image ( 3 / 1813 )  |  

<<最初へ <戻る | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 進む> 最後へ>>