古川秀明
tim12****@gmail*****
2010年 2月 14日 (日) 03:08:59 JST
初めまして、古川です。 pingdの使い方について質問です。 heartbeatというよりpacemakerの質問なので、ここで良いか自信が有りませんが・・・ 使用バージョン CentOS5.4 drbd8.3.6 heartbeat3.0.1 pacemaker1.0.7 ノード名とIP等 ・pacemaker1:bond0 192.168.0.1、bond1 192.168.1.1、bond2 192.168.10.1 ・pacemaker2:bond0 192.168.0.2、bond1 192.168.1.2、bond2 192.168.10.2 bond0をdrbd用、bond1を外部向け、bond2を内部向けとしています。 pacemaker1とpacemaker2はシリアルケーブルで接続済み 両ノードで「mount -t nfsd nfsd /proc/fs/nfsd」実行済み リソース ・drbd drbd内リソース名mysql ・Filesystem /dev/drbd0を/dataにマウント、マウントオプションとしてnoatimeを追加。 ・IPAddr2 192.168.1.10 ・IPAddr2 192.168.10.10 ・nfsserver 共有ディレクトリは/data ※drbd以外はグループとして1つにまとめています この環境で、以下のようなポリシーでdrbdを使ったnfsサーバの冗長化を行いたいと思っています。 ※パターンAとBはひとまず両パターンの設定で動作確認したいということで、同時に実現したいわけでは有りません ・自動フェイルバックしない ・リソース故障時に必ず全リソースフェイルオーバー default-resource-failure-stickiness="-INFINITY"が該当すると思っています ・正常時はpacemaker1で全リソースが起動する ・パターンA bond0〜2のどれか1つでも該当セグメントのGW(第4オクテッド254)と通信断時に、全リソースフェイルオーバー ・パターンB bond1通信断時は全リソースフェイルオーバー、bond0と2はより多くpingが通る方のノードで全リソース稼働 何となくpingdを使って下のようにすれば良いのかな、と思っていますが書き方がわかりません。 ご教示お願いします。(そもそも下が間違っている可能性大ですが) パターンAはpingdリソースを3つ(192.168.0.254、192.168.1.254、192.168.10.254)の3つを作成し、 1つでも通信不能になったらフェイルオーバー パターンBはbond1についてはパターンA同様に行い、bond0と2はGWと通信出来た場合スコア上昇 あと、先ほど気づいたんですが他マシンから「192.168.1.10」に対して nfsマウント実施したところ、マウントは問題無いもののアンマウント時に 「not found / mounted or server not reachable」と表示されました。(フェイルオーバー発生前から) こちらについてもご存じの方がいらっしゃいましたら教えてください。 以上よろしくお願いします。 備考 http://www.clusterlabs.org/wiki/Pingd_with_resources_on_different_networks http://wiki.linux-ha.org/ja/v2/faq/pingd_ja?action=show&redirect=ja%2Fpingd+ja 上記2つを見たものの、operation="defined"や"lte""not_defined"のところが特に理解できませんでした・・・ ==========crm configure saveの結果========== node $id="省略" pacemaker1 node $id="省略" pacemaker2 \ attributes standby="off" primitive drbd0 ocf:linbit:drbd \ params drbd_resource="mysql" primitive res_fs ocf:heartbeat:Filesystem \ params device="/dev/drbd0" directory="/data" fstype="ext3" options="noatime" primitive res_ip-dmz ocf:heartbeat:IPaddr2 \ params ip="192.168.1.10" cidr_netmask="24" nic="bond1" primitive res_ip-mgm ocf:heartbeat:IPaddr2 \ params ip="192.168.10.10" cidr_netmask="24" nic="bond2" primitive res_nfs ocf:heartbeat:nfsserver \ params nfs_init_script="/etc/init.d/nfs" nfs_ip="192.168.1.10" nfs_shared_infodir="/" nfs_notify_cmd="/sbin/rpc.statd" group rg_group1 res_fs res_ip-mgm res_ip-dmz res_nfs ms ms-drbd0 drbd0 \ meta clone-max="2" notify="true" clone-node-max="1" master-node-max="1" master-max="1" location l_group1 rg_group1 100: pacemaker1 colocation c_group1 inf: rg_group1 ms-drbd0:Master order o_group1 0: ms-drbd0:promote rg_group1:start property $id="cib-bootstrap-options" \ dc-version="1.0.7-省略" \ cluster-infrastructure="Heartbeat" \ stonith-enabled="false" \ no-quorum-policy="ignore" \ default-resource-stickiness="200" \ last-lrm-refresh="省略" \ default-resource-failure-stickiness="-INFINITY" ==========================================