:::: MENU ::::
Posts tagged with: raid

3Wareドライバーの在り処

Debianで動作していたLinux機が起動出来なくて、OS再インストールした際に、RAIDカードの3ware製ドライバーのリンク先が変更されていたようで、結構手間取ってしまった。

以前は、3ware.comでしたが、下記URLに変更されていたんですね。

http://www.avagotech.com/support/download-search

せっかくなので、ついでにインストールのメモ

3DMのインストール

上記URLから該当するRAID Controllerを検索し、Software欄で、Linux版の3DM2 CLI Linux from the 10…..をダウンロード

解凍とインストール

# unzip 3DM2_CLI-linux_***.zip
# chmod 755 install.sh
# ./install.sh -i


..........
Press Y to accept the License Agreement or N to decline (and exit) then press 'Enter Key': Y
(Yを入力する)

3ware CLI & 3DM2 installation, configuration and removal script.
(c) 2010 LSI, Inc. All rights reserved.

Script version: v3.00.00.021
*******************************


3DM2 supports two modes of operation.
-------------------------------------
0 - 3DM2 with WEB interface
1 - 3DM2 Error/Event Logger only

Which version of 3DM would you like configured? (0|1) 0 (0を入力)
*** 3DM2 selected. ***

*** Installing 3DM2 and CLI ***


Press 'Enter Key' to continue with installation or Control C to exit.

Creating installation tmp directory /tmp/3ware... done.

Extracting installation files to /tmp/3ware... done.

Changing directory to /tmp/3ware to continue installation done.
Creating 3dm2 configuration directory (/etc/3dm2)... done.
Creating 3dm2 install path (/opt/3ware/3DM2)... done.
Creating 3dm2 message file install path (/opt/3ware/3DM2/msg)... done.
Creating 3dm2 help file install path (/opt/3ware/3DM2/help)... done.
Creating CLI install path (/opt/3ware/CLI)... done.

******************************************
**** Installing 3DM2 files for x86_64
******************************************

Copying install.sh to /opt/3ware... done.
Installing 3dm2u binary to /opt/3ware/3DM2... done.
Setting runtime permissions for /opt/3ware/3DM2/3dm2... done.
Installing 3dm2 message files to /opt/3ware/3DM2/msg... done.
Installing 3dm2 help files to /opt/3ware/3DM2/help... done.
Installing 3dm2 configuration file to /etc/3dm2... done.
Installing 3dm2 logo file to /etc/3dm2... done.
Installing /etc/init.d/tdm2 script... done.
Setting runtime permissions for /etc/init.d/tdm2... done.

******************************************
**** Installing CLI files for x86_64
******************************************

Installing CLI binary to /opt/3ware/CLI/tw_cli... done.
Setting runtime permissions for /opt/3ware/CLI/tw_cli... done.
Installing CLI html help to /opt/3ware/CLI... done.
Installing CLI man page to /usr/share/man/man8... done.

***************************************
**** Configuring CLI & 3DM2
***************************************

Creating /usr/sbin/3dm2 symbolic link to /opt/3ware/3DM2/3dm2... done.
Creating /usr/sbin/tw_cli symbolic link to /opt/3ware/CLI/tw_cli... done.
Setting runtime permissions for /etc/3dm2/3dm2.conf... done.

***************************************
**** Finishing Installation
***************************************


*** Starting 3DM2 using configuration found in /etc/3dm2/3dm2.conf ***
[ ok ] Starting tdm2 (via systemctl): tdm2.service.

今回は、対話モードでのインストールでしたが、対話無しで一気にインストールする場合は、下記で。

# ./install.sh --install -fN0

確認

ps aux|grep 3dm
root 14492 0.0 0.0 77220 2744 ? Sl 09:21 0:00 /usr/sbin/3dm2

接続

http://localhost:888/
Administratorでログインする
初期パスワードは3ware

補足

自Linux上のFirefoxからlocalhost:888にアクセスしても、接続出来ないので、ファイヤーウォールやらポート確認してみましたが、問題ないので、他端末のGoogle Chromeでアクセスしたところ、無事にアクセスすることが出来た。

Firefoxだけの原因のようで、下記の何れかに該当するのかもしれません。

https://support.mozilla.org/ja/kb/firefox-cant-load-websites-other-browsers-can

追記:私の環境の場合、httpsでアクセスした際に証明書の問題のようで、「例外を追加」することでアクセス出来るようになりました。

https://support.mozilla.org/ja/kb/secure-connection-failed-error-message


3TB-HDDでソフトウェアRAID構築

3TBのハードディスク2玉をPowerEdge R310に装着し、ソフトウェアRAIDで構築した際のメモ

PowerEdge R310に3TBのHDDを2基追加し、ソフトウェアRAID(RAID1)を構築する。

    環境:

  1. PC:PowerEdge R310
  2. RAM: 16GB
  3. HDD: 500GB+2TB
  4. OS: Scientific Linux 6.1

作業

  • 3TBハードディスク2個をR310に取り付け。
  • BIOS起動し、SATAの欄でハードディスクスロットがデフォルトでOFFになっているので、Autoにする。
  • 再起動し、もう一度BIOSを立ち上げ、3TBのHDDが認識しているか確認する。
  • OS起動

追加HDDのデバイス名を確認

OS起動後、取り付けたハードディスクのデバイス名をdmesgなどで確認。
ちなみに、取り付けたHDDは、/dev/sdb,/deb/sddになっていた。
/dev/sdaが起動ディスク
/dev/sdcが以前に追加したHDD

partedでフォーマット

fdiskでは3TBは使えないようなので、partedを使う。


# parted /dev/sdb
GNU Parted 2.1
/dev/sdb を使用

GNU Parted へようこそ!コマンド一覧を見るには 'help' と入力してください。
(parted) mklabel gpt

(parted) unit GB
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
(parted) mkpart primary xfs 0 3001
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 0.00GB 3001GB 3001GB primary

(parted) set 1 raid on
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 1049kB 3001GB 3001GB primary raid

これらを、もう1台のHDD(/dev/sdd)に対しても行う(必要ないかもしれない??)

ソフトウェアRAID構築

etc# vi mdadm.conf
[root@sl6]/etc# mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bd]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1g.2 metadata
mdadm: array /dev/md0 started.

RAID アレイ構築中

[root@sl6]/etc# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]
[>....................] resync = 0.0% (1569920/2930263928) finish=373.0min speed=130826K/sec

unused devices:

構築時間が6時間ほどかかる。

RAID アレイ構築完了

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

ファイルシステム作成

RAID アレイ構築完了後、/dev/md0 に XFS ファイルシステムを作成(ext3でもext4でも良いがお好みで)

# mkfs.xfs -f -b size=4096 -i size=512 /dev/md0
meta-data=/dev/md0 isize=512 agcount=4, agsize=183141496 blks
= sectsz=512 attr=2
data = bsize=4096 blocks=732565982, imaxpct=5
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=357698, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0

マウント設定

/dev/md0 デバイスを、 /raid ディレクトリにマウントするには、/etc/fstab に次のような行を追記して、mount コマンドを実行

# vi /etc/fstab
/dev/md0 /raid xfs noatime,nodiratime,osyncisdsync,logbufs=8,usrquota,grpquota 1 2

# mkdir /raid
# mount -a

起動時に RAID アレイを有効にする

OS 起動時に RAID アレイを有効にするため、mdmonitor を自動起動するようにする。

[root@sl6 ]# chkconfig mdmonitor on

RAIDの監視

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Aug 9 15:01:33 2011
Raid Level : raid1
Array Size : 2930263928 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930263928 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Wed Aug 10 09:06:16 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : xx.xx.xx.xx:0 (local to host xx.xx.xx.xx)
UUID : 3f147c88:dd3985ef:1020b4d9:15575a01
Events : 17

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 49 1 active sync /dev/sdd1

アラートメールの設定

障害が起きた場合のアラートメールは、「/etc/mdadm.conf」 の「MAILADDR」に設定されているメールアドレスに送信される。デフォルトではroot