Vmware gsx server 下RedHat Advanced Server 2.1集群配置
-----------By rdd
一. 宿主計算機硬體配置
P4 1.7G 384m內存 winxp系統
二. 虛擬硬體環境
兩台vmware gsx server下安裝的RedHat Advanced Server 2.1
主機1:主機名linuxone,網卡配置 ----------172.16.1.1(外部聯網),1.1.1.1(心跳線)。
主機2:主機名 linuxtwo 網卡配置 ----------172.16.1.2(外部聯網),1.1.1.2(心跳線)。
三. 系統安裝
所需軟體:vmware-gsx-server-installer-2.5.1-5336.exe
RedHat Advanced Server 2.1
安裝步驟:
1. 安裝vmware-gsx-server-installer-2.5.1-5336.exe后,在vmware中新建虛擬機(分配內存128M)並保存在d:\zhongguochun\linuxad1,用redhat光碟安裝RedHat Advanced Server 2.1,為了加快安裝,你可以在boot:後面輸入text進入文本安裝模式。別的地方不說了。在選擇安裝類型那裡選擇custom,然後在包列表那裡要選擇上kernel source.
主機名設置為linuxone,ip地址設置為172.16.1.1 255.255.0.0
2. ……….中間省略n多過程
3. 安裝完成
4. 在d:\zhongguochun目錄下新建目錄linuxad2,並將d:\zhongguochun\linuxad1裡面剛才安裝好的虛擬操作系統複製一份到linuxad2
這樣子,我們就得到了兩個虛擬的RedHat Advanced Server 2.1了,當然,他們是一樣的,我們需要進行些修改。
5. 進入d:\zhongguochun\linuxad2,用寫字板打開linux.vmx,修改displayName = "Linuxad1"為displayName = "Linuxad2",這樣子,在vmware控制台,你就看到兩個不同的名字了。儘管如此,如果你同時啟動兩個虛擬機,這兩個虛擬系統還是一樣的,所以,我們需要修改他們的ip地址,主機名字等。
6. 將linuxad2目錄中的系統啟動,修改主機名字
#vi /etc/sysconfig/network
將HOSTNAME=linuxone改為HOSTNAME=linuxtwo
接下來修改ip地址:
#vi /etc/sysconfig/network-scripts/ifcfg-eth0
將IPADDR=172.16.1.1改為IPADDR=172.16.1.2
改了名字,別忘記修改/etc/hosts喲
#vi /etc/hosts
加入
172.16.1.2 linuxtwo
7.Power off 這個虛擬機,這個樣子,我們就得到了兩個不同的系統拉,一個是linuxone,位於d:\zhongguochun\linuxad1,一個是linuxtwo 位於d:\zhongguochun\linuxad1
二.添加硬體
在兩個系統都power off的狀態下。我們需要分別給兩個系統添加一塊網卡,還要添加一個共享磁碟
1.用vmware 打開linuxone,注意不是power on 哦。在setting菜單下選擇configuration edtior
,點擊add,添加一塊網卡,這個就不需要講了吧。還需要添加一個虛擬磁碟,還是點add,硬體類型是Hard disk,然後」Creat a new virtual disk」,大小我分配了0.5G,並選擇上下面的「Allocate all disk space」.下一步是給共享磁碟起名字叫」sharedisk.pln」,然後確定。這樣子就添加好了。
2.用vmware 打開linuxtwo,注意不是power on 哦。同樣添加一塊網卡。接著添加虛擬磁碟,這次是」Use an existing virtual disk」,然後選擇我們剛才在linuxone中創建的sharedisk.pln,按照提示就可以了。
3.磁碟和網卡都添加好了。這裡,還需要注意,由於vmware中的系統啟動後會鎖定磁碟,所以當你啟動linuxone后共享磁碟被鎖定了,你的linuxtwo就起不來了。因此,我們需要處理一下先。首先,到d:\zhongguochun\linuxad1下,用寫字板打開linux.vmx,在最後一行加入
Disk.locking = false
然後到d:\zhongguochun\linuxad2,同樣修改linux.vmx, 在最後一行加入
Disk.locking = false
保存退出。
4.好了,到此為止,兩個系統的硬體都配置好了呀
註:最好在Configuration editor 裡面修改共享磁碟的」Vitual disk node」為scsi 1:0
三.為我們新添加的網卡配置ip地址先
1.Power On linuxone,啟動過程中kudzu就會檢測到新網卡,但是儘管你選擇配置新網卡,啟動完成後,
#ifconfig
還是只顯示一塊網卡的。所以,我們需要執行下面的命令拉
#cp /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth1
#vi /etc/sysconfig/network-scripts/ifcfg-eth1
將裡面的ip地址和mask改為:1.1.1.1 255.0.0.0
#service network restart
#ifconfig
顯示兩塊網卡的正確配置拉。
2.同時Power On linuxtwo
#cp /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth1
#vi /etc/sysconfig/network-scripts/ifcfg-eth1
將裡面的ip地址和mask改為:1.1.1.2 255.0.0.0
#service network restart
#ifconfig
顯示兩塊網卡的正確配置拉。
三.修改兩主機/etc/hosts
#vi /etc/hosts
172.16.1.1 linuxone
172.16.1.2 linuxtwo
1.1.1.1 linuxone
1.1.1.2 linuxtwo
172.16.1.3 redhatcluster
注意,最後一個ip是集群管理用
三。集群配置
(一)配置我們的共享磁碟
1. 切換到linuxone
#fdisk /dev/sdb
創建250m /dev/sdb1
250m /dev/sdb2
在兩台伺服器上分別編輯/etc/sysconfig/rawdevices文件,以便將分區綁定到裸設備。
#vi /etc/sysconfig/rawdevices
加入
/dev/raw/raw1 /dev/sdb1
/dev/raw/raw2 /dev/sdb2
重啟服務
#service rawdevices restart
看了些文檔說要
#cludiskutil –p驗證Quoram分區
我這裡顯示沒有/etc/cluster.conf
不過,不管它。
2.切換到linuxtwo做同樣的操作
(二)配置集群
切換到linuxone
#/sbin/cluconfig
你將看到以下輸出:
Enter cluster name :redhatcluster
Enter IP address for cluster alias : 172.16.1.1
--------------------------------
Information for Cluster Member 0
--------------------------------
Enter name of cluster member : linuxone
Looking for host one (may take a few seconds)...
Enter number of heartbeat channels (minimum = 1) : 1
Information about Channel 0
Channel type: net or serial :
Enter hostname of the cluster member on heartbeat channel 0 \
: linnuxone
Looking for host linnuxone (may take a few seconds)...
Information about Quorum Partitions
Enter Primary Quorum Partition : /dev/raw/raw1
Enter Shadow Quorum Partition : /dev/raw/raw2
Information About the Power Switch That Power Cycles Member 』 linnuxone』
Choose one of the following power switches:
o NONE
o RPS10
o BAYTECH
o APCSERIAL
o APCMASTER
o WTI_NPS
Power switch : NONE
Information for Cluster Member 1
--------------------------------
Enter name of cluster member : linuxtwo
Looking for host linuxtwo (may take a few seconds)...
Information about Channel 0
Enter hostname of the cluster member on heartbeat channel 0 \
: linuxtwo
Looking for host linuxtwo (may take a few seconds)...
Information about Quorum Partitions
Enter Primary Quorum Partition : /dev/raw/raw1
Enter Shadow Quorum Partition : /dev/raw/raw2
Information About the Power Switch That Power Cycles Member 』 linuxtwo』
Choose one of the following power switches:
o NONE
o RPS10
o BAYTECH
o APCSERIAL
o APCMASTER
o WTI_NPS
Power switch : NONE
.
.
.
省略部分輸出--------------------
Member 0 Information
--------------------
Name: linuxone
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: linuxone
Power switch IP address or hostname:linuxone
--------------------
Member 1 Information
--------------------
Name: linuxtwo
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: linuxtwo
Save the cluster member information? yes/no :
Writing to configuration file...done
Configuration information has been saved to /etc/cluster.conf.
----------------------------
Setting up Quorum Partitions
----------------------------
Running cludiskutil -I to initialize the quorum partitions: done
Saving configuration information to quorum partitions: done
Do you wish to allow remote monitoring of the cluster? yes/no \
: yes
----------------------------------------------------------------
Configuration on this member is complete.
To configure the next member, invoke the following command on that system:
# /sbin/cluconfig --init=/dev/raw/raw1
See the manual to complete the cluster installation
3.切換到linuxtwo
#cluconfig --init=/dev/raw/raw1
………顯示好多東西。。。直到出現
Press to continue. --按回車繼續
………又是好多東西,直到出現
Save the cluster member information? yes/no : --回車繼續
………最後的總結信息
Configuration on this member is complete.
Execute "/sbin/service cluster start" to start the cluster software.
4.啟動Cluster服務
在linuxone上,linuxtwo上依次
#service cluster start
回到linuxone
#cluadmin
cluadmin>;cluster status
顯示集群的兩個節點
Linuxone,linuxtwo的狀態都是up,good
好了,完成。
後記:因為明天要忙項目,今天寫這個東西匆忙的很,錯漏難免。另外,我也參考了一些網上兄弟的美文,有的部分甚至是拷貝粘貼。這裡不一一列舉,但表示衷心感謝。寫此文的目的只是想幫助那些需要幫助的兄弟,因為我自己也是一路摸索一路辛苦過來,所以想幫幫他們。別無他意。高手莫見笑,錯誤請指正。
[火星人 ] Vmware下RedHat AS 2.1集群配置StepbyStep已經有403次圍觀