:::: MENU ::::
Posts tagged with: SL6

KVMでゲストOSのスナップショット作成

sl6上のKVMでゲストOSのスナップショットを作成し、復元してみる。

スナップショット作成

# virsh

virsh # list -all

Id 名前               状態
----------------------------------
1 Server               実行中
2 SL6                  実行中
3 LDAP                 実行中

virsh # snapshot-create SL6

ゲストOSの容量にもよるが、初めてのスナップショットは、結構時間がかかります。

確認

virsh # snapshot-list SL6
名前 Creation Time 状態
---------------------------------------------------
1314776508 2011-08-31 16:41:48 +0900 running

復元

virsh # snapshot-revert SL6 1314776508

3TB-HDDでソフトウェアRAID構築

3TBのハードディスク2玉をPowerEdge R310に装着し、ソフトウェアRAIDで構築した際のメモ

PowerEdge R310に3TBのHDDを2基追加し、ソフトウェアRAID(RAID1)を構築する。

    環境:

  1. PC:PowerEdge R310
  2. RAM: 16GB
  3. HDD: 500GB+2TB
  4. OS: Scientific Linux 6.1

作業

  • 3TBハードディスク2個をR310に取り付け。
  • BIOS起動し、SATAの欄でハードディスクスロットがデフォルトでOFFになっているので、Autoにする。
  • 再起動し、もう一度BIOSを立ち上げ、3TBのHDDが認識しているか確認する。
  • OS起動

追加HDDのデバイス名を確認

OS起動後、取り付けたハードディスクのデバイス名をdmesgなどで確認。
ちなみに、取り付けたHDDは、/dev/sdb,/deb/sddになっていた。
/dev/sdaが起動ディスク
/dev/sdcが以前に追加したHDD

partedでフォーマット

fdiskでは3TBは使えないようなので、partedを使う。


# parted /dev/sdb
GNU Parted 2.1
/dev/sdb を使用

GNU Parted へようこそ!コマンド一覧を見るには 'help' と入力してください。
(parted) mklabel gpt

(parted) unit GB
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
(parted) mkpart primary xfs 0 3001
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 0.00GB 3001GB 3001GB primary

(parted) set 1 raid on
(parted) print
モデル: ATA Hitachi HDS72303 (scsi)
ディスク /dev/sdb: 3001GB
セクタサイズ (論理/物理): 512B/512B
パーティションテーブル: gpt

番号 開始 終了 サイズ ファイルシステム 名前 フラグ
1 1049kB 3001GB 3001GB primary raid

これらを、もう1台のHDD(/dev/sdd)に対しても行う(必要ないかもしれない??)

ソフトウェアRAID構築

etc# vi mdadm.conf
[root@sl6]/etc# mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bd]1
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1g.2 metadata
mdadm: array /dev/md0 started.

RAID アレイ構築中

[root@sl6]/etc# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]
[>....................] resync = 0.0% (1569920/2930263928) finish=373.0min speed=130826K/sec

unused devices:

構築時間が6時間ほどかかる。

RAID アレイ構築完了

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

ファイルシステム作成

RAID アレイ構築完了後、/dev/md0 に XFS ファイルシステムを作成(ext3でもext4でも良いがお好みで)

# mkfs.xfs -f -b size=4096 -i size=512 /dev/md0
meta-data=/dev/md0 isize=512 agcount=4, agsize=183141496 blks
= sectsz=512 attr=2
data = bsize=4096 blocks=732565982, imaxpct=5
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal log bsize=4096 blocks=357698, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0

マウント設定

/dev/md0 デバイスを、 /raid ディレクトリにマウントするには、/etc/fstab に次のような行を追記して、mount コマンドを実行

# vi /etc/fstab
/dev/md0 /raid xfs noatime,nodiratime,osyncisdsync,logbufs=8,usrquota,grpquota 1 2

# mkdir /raid
# mount -a

起動時に RAID アレイを有効にする

OS 起動時に RAID アレイを有効にするため、mdmonitor を自動起動するようにする。

[root@sl6 ]# chkconfig mdmonitor on

RAIDの監視

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdd1[1] sdb1[0]
2930263928 blocks super 1.2 [2/2] [UU]

unused devices:

# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Aug 9 15:01:33 2011
Raid Level : raid1
Array Size : 2930263928 (2794.52 GiB 3000.59 GB)
Used Dev Size : 2930263928 (2794.52 GiB 3000.59 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Update Time : Wed Aug 10 09:06:16 2011
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Name : xx.xx.xx.xx:0 (local to host xx.xx.xx.xx)
UUID : 3f147c88:dd3985ef:1020b4d9:15575a01
Events : 17

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 49 1 active sync /dev/sdd1

アラートメールの設定

障害が起きた場合のアラートメールは、「/etc/mdadm.conf」 の「MAILADDR」に設定されているメールアドレスに送信される。デフォルトではroot


quotacheckでのエラー表示

fstabにquota表記を追記し、再マウントした後に、quotacheckを実行したらエラーが出た。

# quotacheck -cv /home
quotacheck: Your kernel probably supports journaled quota but you are not using it. Consider switching to journaled quota to avoid running quotacheck after an unclean shutdown.
quotacheck: Quota for users is enabled on mountpoint /home so quotacheck might damage the file

一度、再起動しても、同じ症状のエラーが表示されたので、下記を実行

# quotaoff -av
# quotacheck -a
# quotaon -av

TimeZoneの変更

Virtualbox内のゲストOSで時間がずれるので、調べてみると、CPUプロセッサを2以上に設定していると起こる現象らしい。

すでにCPUx2でLinuxのゲストOSを作成していて、プロセッサを1に減らすと、起動しなくなったので、臨時的にTimeZoneを変更した。

clockファイルの修正

# cd /etc/sysconfig
# vi clock
# cat clock
ZONE="US/Arizona"
UTC=false
ARC=false

localtimeの修正


# rm -f /etc/localtime
# cp -p /usr/share/zoneinfo/US/Arizona /etc/localtime

システム時刻とハードウェアクロックを同期


# /sbin/clock --systohc


qcow2の作成と差分

KVM上で新規作成する場合、デフォルトでハードディスクはraw形式となります。

raw形式の方がアクセスは早いのですが、差分ととったり、マイグレーションする場合には、少しでも容量を小さくしたい事もある。

なので、最初からqcow2を作成する。

# qemu-img create -f qcow2 <filename> 10G   #<---10GBのディスク作成

さらに、qcow2ではイメージファイルを原本と差分に分けることが出来る。


差分イメージの作成:

# qemu-img create -b <filename> -f qcow2 <diff-filename>

差分イメージとの合成:

# qemu-img commit -f qcow2 <diff-filename>


KVM上のqumeイメージファイルを、rawからqcow2形式に変換する方法。

KVM上のqumeイメージファイルを、rawからqcow2形式に変換する方法。

KVM上の対象ゲストOSを停止し、

# qemu-img convert -O qcow2 <元イメージファイル> <変換イメージファイル>

この後、元イメージファイルと変換イメージファイルを入れ替えて、ゲストOS起動確認。

たまに、ブート出来なくなるようなので、ゲストOS詳細画面から、ディスク情報を削除し、再設定すると起動出来る場合がある。

イメージファイル自体を削除するのではないことに注意!!


autofsでマウントされない場合

autoumount(autofs)の設定でハマった点

症状:手動でNFSマウント出来ることが確認出来た後、autofsで自動マウントされない

マウントしようとすると、No such file and directoryで接続出来ていない模様。

以下の項目で解決

  • /etc/auto.master内の+auto.masterをコメントアウト
  • マウント先のディレクトリを作成しておく
  • autofsを再起動
あとは、接続元のexportsでアクセス制限がかかってないことを確認すること。

Sambaでシムリンク先が参照出来ないとき

Sambaで共有設定してて、その中にシムリンクのファイルやフォルダがある場合に、それらを参照すると、エラーとなる場合、下記をチェック。

smb.conf

wide links = yes
unix extensions = no
follow symlinks = yes

上2行で良いかも知れません。
でも、このセットで書いておこう。


ページ:12345