mdadmでraid-10を構築していたのにサーバー再起動したら認識しなくなった時の修復方法

Pocket
LINEで送る
GREE にシェア
LinkedIn にシェア

以前に構築した自宅NASで8TB*4でRaid-10(実質容量16TB)が、本日サーバーの再起動を行った際に認識しなくなりました。
 

症状の追求

とりあえず、普通にmountコマンドを実施すると、以下のようなエラーが表示される。
 

 

何の解決にもならないエラーメッセージなので、とりあえず支持されているコマンドを実行
 

 

これも、なんだかよく分からず、md0のraidイメージが正常にマウントできない異常事態という事だけは理解できました。
 

mdadmの不具合?

以前に調べた時は、以下の手順で修復が出来たことを思い出して、実行。
 

 

・・・だけど、これも駄目・・・
 

こういうニッチな事象は日本語サーチしても引っかからないことはよく分かってます。
 

海外のstackで調べてみたらドンピシャ記事がありました。
 

https://superuser.com/questions/603481/how-do-i-reactivate-my-mdadm-raid5-array
 

原因はやはり、mdadmで、そのコンフィグファイルの修正が必要だということです。
 

手順は以下の通り
 

 

これで治った!!!
 

注意点としては、「確認」を行ったの際にmd0やsdc1~sce1、までの実ドライブ認識がされていない場合は、今回の修復では直りません。

Leave a Reply

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です