[linux-users: 108975] Re: Linux SoftRAID Crash

Akihiko KITAMURA ktmr @ lambeden.dyndns.org
2014年 10月 30日 (木) 23:40:31 JST


こんばんは、北村です。
フォローありがとうございます。

At Thu, 30 Oct 2014 01:29:44 +0900,
河本陽一/いっつ wrote:
> 
> 河本です。
> 
> On 2014/10/30 00:49, Akihiko KITAMURA wrote:
> > # mdadm --examine /dev/sdd
> > /dev/sdd:
> >     MBR Magic : aa55
> > Partition[0] :   4294967295 sectors at            1 (type ee)
> 
>  パーティションを切らずに使用しているのでしょうか?

はい。
OMVは普通はWeb管理画面から設定するのですが、パーティションを切ってRAIDを組むという概念はないみたいですね。

>  手元の環境は、パーティションを切って使用しているのですが、ディスクその
> ものだと、同じようになりました。
>  /etc/mdadm/mdadm.conf にアレイの情報を書いている場合は、それをさらして
> みると良いかと思います。

こんな感じです。
今残っているのは別のボリュームです。
4本のディスクでそれぞれ全体ではRAID1ボリュームを2つ作っていて、
今回の障害で4本中3本が見えなくなりました。
失敗したのが、OMVの管理画面からデグレードになったボリュームの復旧を掛けたら、mdadm.confを上書きされてしまい、今見えていないボリュームの情報は消されてしまいました。

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# definitions of existing MD arrays
ARRAY /dev/md1 metadata=1.2 name=omv:VOL2 UUID=f3113a18:6e54a89f:6030008b:4bbcbc40

# instruct the monitoring daemon where to send mail alerts
MAILADDR root @ lambeden.dyndns.org
MAILFROM root
root @ omv:~# cat /proc/partitions
major minor  #blocks  name

   2        0          4 fd0
  11        0    1048575 sr0
   8        0   16777216 sda
   8        1   16043008 sda1
   8        2          1 sda2
   8        5     731136 sda5
   8       16 1953514584 sdb
   8       48 2930266584 sdd
   8       64 2930266584 sde
   8       32 1953514584 sdc
   9        1 1953383360 md1

ちなみに生きているボリュームはちゃんと見えます。
root @ omv:~# mdadm --examine /dev/sdb
/dev/sdb:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : f3113a18:6e54a89f:6030008b:4bbcbc40
           Name : omv:VOL2  (local to host omv)
  Creation Time : Fri Oct  3 00:54:55 2014
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
     Array Size : 1953383360 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906766720 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : c3d30583:330fa053:276bcffb:08b10bce

    Update Time : Thu Oct 30 05:50:41 2014
       Checksum : b40944bd - correct
         Events : 69075


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing)


RAIDボリュームとして戻せなくても、Mirrorなので、中のxfsをリペア出来れば、データは救えると思うので、その辺の復旧方法を知っている方ぜひ教えて頂きたいです。

よろしくお願い致します。

--
きたむら


linux-users メーリングリストの案内