:::: MENU ::::

3TB-HDDでソフトウェアRAID構築

3TBのハードディスク2玉をPowerEdge R310に装着し、ソフトウェアRAIDで構築した際のメモ

PowerEdge R310に3TBのHDDを2基追加し、ソフトウェアRAID(RAID1)を構築する。

    環境:

  1. PC:PowerEdge R310
  2. RAM: 16GB
  3. HDD: 500GB+2TB
  4. OS: Scientific Linux 6.1

作業

  • 3TBハードディスク2個をR310に取り付け。
  • BIOS起動し、SATAの欄でハードディスクスロットがデフォルトでOFFになっているので、Autoにする。
  • 再起動し、もう一度BIOSを立ち上げ、3TBのHDDが認識しているか確認する。
  • OS起動

追加HDDのデバイス名を確認

OS起動後、取り付けたハードディスクのデバイス名をdmesgなどで確認。
ちなみに、取り付けたHDDは、/dev/sdb,/deb/sddになっていた。
/dev/sdaが起動ディスク
/dev/sdcが以前に追加したHDD

partedでフォーマット

fdiskでは3TBは使えないようなので、partedを使う。


# parted /dev/sdb
GNU Parted 2.1
/dev/sdb を使用

GNU Parted へようこそ!コマンド一覧を見るには 'help' と入力してください。
(parted) mklabel gpt

(parted) unit GB
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
(parted) mkpart primary xfs 0 3001
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 0.00GB 3001GB 3001GB primary

(parted) set 1 raid on
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 1049kB 3001GB 3001GB primary raid

これらを、もう1台のHDD(/dev/sdd)に対しても行う(必要ないかもしれない??)

ソフトウェアRAID構築

etc# vi mdadm.conf
[root@sl6]/etc# mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bd]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1g.2 metadata
mdadm: array /dev/md0 started.

RAID アレイ構築中

[root@sl6]/etc# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]
[>....................] resync = 0.0% (1569920/2930263928) finish=373.0min speed=130826K/sec

unused devices:

構築時間が6時間ほどかかる。

RAID アレイ構築完了

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

ファイルシステム作成

RAID アレイ構築完了後、/dev/md0 に XFS ファイルシステムを作成(ext3でもext4でも良いがお好みで)

# mkfs.xfs -f -b size=4096 -i size=512 /dev/md0
meta-data=/dev/md0 isize=512 agcount=4, agsize=183141496 blks
= sectsz=512 attr=2
data = bsize=4096 blocks=732565982, imaxpct=5
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=357698, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0

マウント設定

/dev/md0 デバイスを、 /raid ディレクトリにマウントするには、/etc/fstab に次のような行を追記して、mount コマンドを実行

# vi /etc/fstab
/dev/md0 /raid xfs noatime,nodiratime,osyncisdsync,logbufs=8,usrquota,grpquota 1 2

# mkdir /raid
# mount -a

起動時に RAID アレイを有効にする

OS 起動時に RAID アレイを有効にするため、mdmonitor を自動起動するようにする。

[root@sl6 ]# chkconfig mdmonitor on

RAIDの監視

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Aug 9 15:01:33 2011
Raid Level : raid1
Array Size : 2930263928 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930263928 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Wed Aug 10 09:06:16 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : xx.xx.xx.xx:0 (local to host xx.xx.xx.xx)
UUID : 3f147c88:dd3985ef:1020b4d9:15575a01
Events : 17

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 49 1 active sync /dev/sdd1

アラートメールの設定

障害が起きた場合のアラートメールは、「/etc/mdadm.conf」 の「MAILADDR」に設定されているメールアドレスに送信される。デフォルトではroot

[`evernote` not found]


One Comment

    So, what do you think ?