GFS中兩個節點不同步的問題
各位大俠,大家好~
小弟在虛擬機中搭了個GFS,有兩個節點A和B,都是RHEL 5,2.6.27的內核,裝好一些集群工具后,
在A節點上mkfs.gfs2,然後mount,在B節點上也mount這個文件系統。
這些都成功了,現在在A節點上對這個GFS文件系統寫一些數據,B節點能看到,但B節點寫一些數據,
A節點卻看不到。而且在A和B節點上看這個文件系統的已用空間大小也不一樣。
請問大家遇到過類似的情況么?或有什麼解決方法呢?
謝謝大家:P
《解決方案》
小頂一下
《解決方案》
需要DLM支持。呵呵論壇里搜一下吧。有資料的。呵呵
《解決方案》
回復 3# niao5929
dlm模塊已經載入了,仍舊出現這個問題
《解決方案》
把配置gfs的幾條命令貼出來看一下。
《解決方案》
回復 5# jordie
問題解決了,是vmware workstation 磁碟共享有點問題,沒有vmware server版那麼
好用,需要改.vmx配置文件。不知道大家 有沒有遇到過類似的問題:lol:
《解決方案》
回復 5# jordie
對了,順便問下大俠,我的配置過程如下,您看有什麼潛在的問題沒,
1、編譯內核的時候已經將GFS編譯進了內核模塊。
2、yum groupinstall "Clustering"
3、裝好集群的工具后,配置兩個節點的/etc/hosts和/etc/cluster/cluster.conf
/etc/hosts 文件內容:
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
192.168.128.129 virt_902.localdomain virt_902
192.168.128.128 virt_904.localdomain virt_904
cluster.conf 文件內容:
<?xml version="1.0"?>
<cluster alias="cluster01" config_version="3" name="cluster01">
<fence_daemon post_fail_delay="0" post_join_delay="3"/>
<clusternodes>
<clusternode name="virt_902" nodeid="1" votes="1">
<fence>
<method name="1"/>
</fence>
</clusternode>
<clusternode name="virt_904" nodeid="2" votes="1">
<fence>
<method name="1"/>
</fence>
</clusternode>
</clusternodes>
<cman expected_votes="1" two_node="1"/>
<fencedevices>
<fencedevice agent="fence_manual" name="manual"/>
</fencedevices>
<rm>
<failoverdomains/>
<resources/>
</rm>
</cluster>
4、service cman start
Starting cluster:
Loading modules... done
Mounting configfs... done
Starting ccsd... done
Starting cman... done
Starting daemons... done
Starting fencing... done
網上說要service ccsd start,service fenced start等,不過好像上面這一條
命令已經包含這些了,不知道我說對了沒有
5、最後在一個節點上mkfs.gfs2 -p lock_dlm -J 32M -t cluster01:gfs -j 2 /dev/sdc
並在兩個節點上,mount.gfs2 /dev/sdc /mnt/gfs
6、完畢!
請大俠指正!
《解決方案》
我都用第三個虛擬機配置GNBD,導出文件系統,然後在各個節點上做gnbd_import,都不會有樓主的這種問題。
《解決方案》
聲明:俺並非大俠,我也是新手。
樓主也用「fence_manual」,這個fence需要手動切換,不知樓主,能實現自動切換否?
樓主做的是什麼集群?我這兩天在做oracle的集群,但是不能正常啟動oracle服務。