歡迎您光臨本站 註冊首頁

Vmware下RedHat AS 2.1集群配置StepbyStep

←手機掃碼閱讀     火星人 @ 2014-03-04 , reply:0

Vmware下RedHat AS 2.1集群配置StepbyStep

  Vmware gsx server 下RedHat Advanced Server 2.1集群配置
                    -----------By rdd
 一.        宿主計算機硬體配置
 P4 1.7G 384m內存 winxp系統
 二.        虛擬硬體環境
 兩台vmware gsx server下安裝的RedHat Advanced Server 2.1
 主機1:主機名linuxone,網卡配置 ----------172.16.1.1(外部聯網),1.1.1.1(心跳線)。
 主機2:主機名 linuxtwo 網卡配置 ----------172.16.1.2(外部聯網),1.1.1.2(心跳線)。
 三.        系統安裝
 所需軟體:vmware-gsx-server-installer-2.5.1-5336.exe
           RedHat Advanced Server 2.1
 安裝步驟:
 1.        安裝vmware-gsx-server-installer-2.5.1-5336.exe后,在vmware中新建虛擬機(分配內存128M)並保存在d:\zhongguochun\linuxad1,用redhat光碟安裝RedHat Advanced Server 2.1,為了加快安裝,你可以在boot:後面輸入text進入文本安裝模式。別的地方不說了。在選擇安裝類型那裡選擇custom,然後在包列表那裡要選擇上kernel source.
 主機名設置為linuxone,ip地址設置為172.16.1.1 255.255.0.0
 2.        ……….中間省略n多過程
 3.        安裝完成
 4.        在d:\zhongguochun目錄下新建目錄linuxad2,並將d:\zhongguochun\linuxad1裡面剛才安裝好的虛擬操作系統複製一份到linuxad2
 這樣子,我們就得到了兩個虛擬的RedHat Advanced Server 2.1了,當然,他們是一樣的,我們需要進行些修改。
 5.        進入d:\zhongguochun\linuxad2,用寫字板打開linux.vmx,修改displayName = "Linuxad1"為displayName = "Linuxad2",這樣子,在vmware控制台,你就看到兩個不同的名字了。儘管如此,如果你同時啟動兩個虛擬機,這兩個虛擬系統還是一樣的,所以,我們需要修改他們的ip地址,主機名字等。
 6.        將linuxad2目錄中的系統啟動,修改主機名字
 #vi /etc/sysconfig/network
 將HOSTNAME=linuxone改為HOSTNAME=linuxtwo
 接下來修改ip地址:
 #vi /etc/sysconfig/network-scripts/ifcfg-eth0
 將IPADDR=172.16.1.1改為IPADDR=172.16.1.2
 改了名字,別忘記修改/etc/hosts喲
 #vi /etc/hosts
 加入
 172.16.1.2  linuxtwo
 7.Power off 這個虛擬機,這個樣子,我們就得到了兩個不同的系統拉,一個是linuxone,位於d:\zhongguochun\linuxad1,一個是linuxtwo 位於d:\zhongguochun\linuxad1
 二.添加硬體
 在兩個系統都power off的狀態下。我們需要分別給兩個系統添加一塊網卡,還要添加一個共享磁碟
 1.用vmware 打開linuxone,注意不是power on 哦。在setting菜單下選擇configuration edtior
 ,點擊add,添加一塊網卡,這個就不需要講了吧。還需要添加一個虛擬磁碟,還是點add,硬體類型是Hard disk,然後」Creat a new virtual disk」,大小我分配了0.5G,並選擇上下面的「Allocate all disk space」.下一步是給共享磁碟起名字叫」sharedisk.pln」,然後確定。這樣子就添加好了。
 2.用vmware 打開linuxtwo,注意不是power on 哦。同樣添加一塊網卡。接著添加虛擬磁碟,這次是」Use an existing virtual disk」,然後選擇我們剛才在linuxone中創建的sharedisk.pln,按照提示就可以了。
 3.磁碟和網卡都添加好了。這裡,還需要注意,由於vmware中的系統啟動後會鎖定磁碟,所以當你啟動linuxone后共享磁碟被鎖定了,你的linuxtwo就起不來了。因此,我們需要處理一下先。首先,到d:\zhongguochun\linuxad1下,用寫字板打開linux.vmx,在最後一行加入
        Disk.locking = false
 然後到d:\zhongguochun\linuxad2,同樣修改linux.vmx, 在最後一行加入
        Disk.locking = false
 保存退出。
 4.好了,到此為止,兩個系統的硬體都配置好了呀
 
 註:最好在Configuration editor 裡面修改共享磁碟的」Vitual disk node」為scsi 1:0
 三.為我們新添加的網卡配置ip地址先
 1.Power On linuxone,啟動過程中kudzu就會檢測到新網卡,但是儘管你選擇配置新網卡,啟動完成後,
 #ifconfig
 還是只顯示一塊網卡的。所以,我們需要執行下面的命令拉
 #cp /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth1
 #vi /etc/sysconfig/network-scripts/ifcfg-eth1
 將裡面的ip地址和mask改為:1.1.1.1 255.0.0.0
 #service network restart
 #ifconfig
 顯示兩塊網卡的正確配置拉。
 2.同時Power On linuxtwo
 #cp /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth1
 #vi /etc/sysconfig/network-scripts/ifcfg-eth1
 將裡面的ip地址和mask改為:1.1.1.2 255.0.0.0
 #service network restart
 #ifconfig
 顯示兩塊網卡的正確配置拉。
 三.修改兩主機/etc/hosts
 #vi /etc/hosts
 172.16.1.1 linuxone
 172.16.1.2 linuxtwo
 1.1.1.1   linuxone
 1.1.1.2   linuxtwo
 172.16.1.3 redhatcluster
 注意,最後一個ip是集群管理用
 
 三。集群配置
 (一)配置我們的共享磁碟
 1.        切換到linuxone
 #fdisk /dev/sdb
 創建250m /dev/sdb1
      250m /dev/sdb2
 
 在兩台伺服器上分別編輯/etc/sysconfig/rawdevices文件,以便將分區綁定到裸設備。
 #vi /etc/sysconfig/rawdevices
  加入
 /dev/raw/raw1 /dev/sdb1
 /dev/raw/raw2 /dev/sdb2
 重啟服務
 #service rawdevices restart
 看了些文檔說要
 #cludiskutil –p驗證Quoram分區
 我這裡顯示沒有/etc/cluster.conf
 不過,不管它。
 2.切換到linuxtwo做同樣的操作
 
 (二)配置集群
 切換到linuxone
 #/sbin/cluconfig
 你將看到以下輸出:
 
 Enter cluster name :redhatcluster
 Enter IP address for cluster alias : 172.16.1.1
 --------------------------------
 Information for Cluster Member 0
 --------------------------------
 Enter name of cluster member : linuxone
 Looking for host one (may take a few seconds)...
 Enter number of heartbeat channels (minimum = 1) : 1
 Information about Channel 0
 Channel type: net or serial :
 Enter hostname of the cluster member on heartbeat channel 0 \
 : linnuxone
 Looking for host linnuxone (may take a few seconds)...
 Information about Quorum Partitions
 Enter Primary Quorum Partition : /dev/raw/raw1
 Enter Shadow Quorum Partition : /dev/raw/raw2
 Information About the Power Switch That Power Cycles Member 』 linnuxone』
 Choose one of the following power switches:
 o NONE
 o RPS10
 o BAYTECH
 o APCSERIAL
 o APCMASTER
 o WTI_NPS
 Power switch : NONE
 
 Information for Cluster Member 1
 --------------------------------
 Enter name of cluster member : linuxtwo
 Looking for host linuxtwo (may take a few seconds)...
 Information about Channel 0
 Enter hostname of the cluster member on heartbeat channel 0 \
 : linuxtwo
 Looking for host linuxtwo (may take a few seconds)...
 Information about Quorum Partitions
 Enter Primary Quorum Partition : /dev/raw/raw1
 Enter Shadow Quorum Partition : /dev/raw/raw2
 Information About the Power Switch That Power Cycles Member 』 linuxtwo』
 Choose one of the following power switches:
 o NONE
 o RPS10
 o BAYTECH
 o APCSERIAL
 o APCMASTER
 o WTI_NPS
 Power switch : NONE
 
 .
 .
 .
 省略部分輸出--------------------
 Member 0 Information
 --------------------
 Name: linuxone
 Primary quorum partition: /dev/raw/raw1
 Shadow quorum partition: /dev/raw/raw2
 Heartbeat channels: 1
 Channel type: net, Name: linuxone
 Power switch IP address or hostname:linuxone
 --------------------
 Member 1 Information
 --------------------
 Name: linuxtwo
 Primary quorum partition: /dev/raw/raw1
 Shadow quorum partition: /dev/raw/raw2
 Heartbeat channels: 1
 Channel type: net, Name: linuxtwo
 Save the cluster member information? yes/no :
 Writing to configuration file...done
 Configuration information has been saved to /etc/cluster.conf.
 ----------------------------
 Setting up Quorum Partitions
 ----------------------------
 Running cludiskutil -I to initialize the quorum partitions: done
 Saving configuration information to quorum partitions: done
 Do you wish to allow remote monitoring of the cluster? yes/no \
 : yes
 ----------------------------------------------------------------
 Configuration on this member is complete.
 To configure the next member, invoke the following command on that system:
 # /sbin/cluconfig --init=/dev/raw/raw1
 See the manual to complete the cluster installation
 
 3.切換到linuxtwo
 #cluconfig --init=/dev/raw/raw1
 ………顯示好多東西。。。直到出現
 Press to continue. --按回車繼續
 ………又是好多東西,直到出現
 Save the cluster member information? yes/no : --回車繼續
 ………最後的總結信息
 Configuration on this member is complete.
 Execute "/sbin/service cluster start" to start the cluster software.
 
 4.啟動Cluster服務
 在linuxone上,linuxtwo上依次
 #service cluster start
 回到linuxone
 #cluadmin
 
 cluadmin>;cluster status
 顯示集群的兩個節點
 Linuxone,linuxtwo的狀態都是up,good
 好了,完成。
 
 後記:因為明天要忙項目,今天寫這個東西匆忙的很,錯漏難免。另外,我也參考了一些網上兄弟的美文,有的部分甚至是拷貝粘貼。這裡不一一列舉,但表示衷心感謝。寫此文的目的只是想幫助那些需要幫助的兄弟,因為我自己也是一路摸索一路辛苦過來,所以想幫幫他們。別無他意。高手莫見笑,錯誤請指正。



[火星人 ] Vmware下RedHat AS 2.1集群配置StepbyStep已經有403次圍觀

http://coctec.com/docs/service/show-post-7917.html