renay****@ybb*****
renay****@ybb*****
2015年 3月 17日 (火) 18:31:04 JST
福田さん こんばんは、山内です。 tag付けされていないので、本日の最新版は、 * https://github.com/ClusterLabs/pacemaker/tree/e32080b460f81486b85d08ec958582b3e72d858c になります。 右側の[Download ZIP]からダウンロード出来ます。 以上です。 ----- Original Message ----- >From: Masamichi Fukuda - elf-systems <masamichi_fukud****@elf-s*****> >To: "renay****@ybb*****" <renay****@ybb*****>; "linux****@lists*****" <linux****@lists*****> >Date: 2015/3/17, Tue 18:07 >Subject: スプリットブレイン時のSTONITHエラーについて > > >山内さん > > >お疲れ様です、福田です。 > > >こちらを見たのですが、 >https://github.com/ClusterLabs/pacemaker/tags > > > >pacemaker 1.1.12 561c4cf が最新のようなのですが。 >済みませんが、これ以降の最新版はどちらにあるか教えて頂けますか。 > > >宜しくお願いします。 > > >以上 > > > >2015年3月17日火曜日、<renay****@ybb*****>さんは書きました: > >福田さん >> >>お疲れ様です。山内です。 >> >>はい。古いです。 >> >>PacemakerがHeartbeat3.0.6に対応したのは意外と最近です。 >>もっと新しいものを入れてください。(また、ソースから構築する必要がありますが・・・・) >> >> >> >>本家のgithubから入手可能です。 >> * https://github.com/ClusterLabs/pacemaker >> >> >>場合によっては、最新のmasterはエラーなどが出る場合がありますので、その場合は、バージョンを古い方にたぐって >>いくのが良いと思います。 >> >>以上です。 >> >> >> >>----- Original Message ----- >>>From: Masamichi Fukuda - elf-systems <masamichi_fukud****@elf-s*****> >>>To: 山内英生 <renay****@ybb*****>; "linux****@lists*****" <linux****@lists*****> >>>Date: 2015/3/17, Tue 16:06 >>>Subject: Re: [Linux-ha-jp] スプリットブレイン時のSTONITHエラーについて >>> >>> >>>山内さん >>> >>>お疲れ様です、福田です。 >>> >>>以前のメールでheartbeatとpacemakerを最新版を入れたほうが良いと回答頂きました。 >>>そこで今回、heartbeat3.0.6とpacemaker1.1.12を入れたのですが。 >>> >>>heartbeat configuration: Version = "3.0.6" >>>pacemaker configuration: Version = 1.1.12 (Build: 561c4cf)pacemakerがまだ古いということでしょうか。 >>> >>>済みませんが、宜しくお願いします。 >>> >>>以上 >>> >>> >>> >>>2015年3月17日 14:59 <renay****@ybb*****>: >>> >>>福田さん >>>> >>>>お疲れ様です。山内です。 >>>> >>>>ふと思ったのすが、以前のやり取りのメールで以下と回答してますが、問題ないでしょうか? >>>> >>>> >>>>>>>>>> 2)Heartbeat3.0.6+Pacemaker最新 : OK >>>>>>>>>> >>>>>>>>>> どうやら、Heartbeatも最新版3.0.6を組合せる必要があるようです。 >>>>>>>>>> * http://hg.linux-ha.org/heartbeat-STABLE_3_0/rev/cceeb47a7d8f >>>> >>>>以下のcrm_monのバージョンを見ると、1.1.12のようです。 >>>>Heartbeat3.0.6と組み合わせるには、かなり新しめのPacemakerが必要です。 >>>> >>>>># crm_mon -rfA >>>>> >>>>>Last updated: Tue Mar 17 14:14:39 2015 >>>>>Last change: Tue Mar 17 14:01:43 2015 >>>>>Stack: heartbeat >>>>>Current DC: lbv2.beta.com (82ffc36f-1ad8-8686-7db0-35686465c624) - parti >>>>>tion with quorum >>>>>Version: 1.1.12-561c4cf >>>> >>>>たぶん、以下の変更以降は少なくとも必要かと思います。 >>>> >>>>https://github.com/ClusterLabs/pacemaker/commit/f2302da063d08719d28367d8e362b8bfb0f85bf3 >>>> >>>> >>>> >>>>以上です。 >>>> >>>> >>>> >>>>----- Original Message ----- >>>>>From: Masamichi Fukuda - elf-systems <masamichi_fukud****@elf-s*****> >>>>>To: 山内英生 <renay****@ybb*****>; "linux****@lists*****" <linux****@lists*****> >>>> >>>>>Date: 2015/3/17, Tue 14:38 >>>>>Subject: Re: [Linux-ha-jp] スプリットブレイン時のSTONITHエラーについて >>>>> >>>>> >>>>>山内さん >>>>> >>>>>お疲れ様です、福田です。 >>>>> >>>>>stonith-helperのシェバング行に-xを追加すれば良いのでしょうか? >>>>>stonith-helperの先頭行を#!/bin/bash -xにしてクラスタを起動してみました。 >>>>> >>>>>crm_monでは先ほどと変わりはないようです。 >>>>> >>>>> >>>>> >>>>># crm_mon -rfA >>>>> >>>>>Last updated: Tue Mar 17 14:14:39 2015 >>>>>Last change: Tue Mar 17 14:01:43 2015 >>>>>Stack: heartbeat >>>>>Current DC: lbv2.beta.com (82ffc36f-1ad8-8686-7db0-35686465c624) - parti >>>>>tion with quorum >>>>>Version: 1.1.12-561c4cf >>>>>2 Nodes configured >>>>>8 Resources configured >>>>> >>>>>Online: [ lbv1.beta.com lbv2.beta.com ] >>>>> >>>>>Full list of resources: >>>>> >>>>> Resource Group: HAvarnish >>>>> vip_208 (ocf::heartbeat:IPaddr2): Started lbv1.beta.com >>>>> varnishd (lsb:varnish): Started lbv1.beta.com >>>>> Resource Group: grpStonith1 >>>>> Stonith1-1 (stonith:external/stonith-helper): Stopped >>>>> Stonith1-2 (stonith:external/xen0): Stopped >>>>> Resource Group: grpStonith2 >>>>> Stonith2-1 (stonith:external/stonith-helper): Stopped >>>>> Stonith2-2 (stonith:external/xen0): Stopped >>>>> Clone Set: clone_ping [ping] >>>>> Started: [ lbv1.beta.com lbv2.beta.com ] >>>>> >>>>>Node Attributes: >>>>>* Node lbv1.beta.com: >>>>> + default_ping_set : 100 >>>>>* Node lbv2.beta.com: >>>>> + default_ping_set : 100 >>>>> >>>>>Migration summary: >>>>>* Node lbv2.beta.com: >>>>> Stonith1-1: migration-threshold=1 fail-count=1000000 last-failure='Tue Mar 17 >>>>> 14:12:16 2015' >>>>>* Node lbv1.beta.com: >>>>> Stonith2-1: migration-threshold=1 fail-count=1000000 last-failure='Tue Mar 17 >>>>> 14:12:21 2015' >>>>> >>>>>Failed actions: >>>>> Stonith1-1_start_0 on lbv2.beta.com 'unknown error' (1): call=31, st >>>>>atus=Error, last-rc-change='Tue Mar 17 14:12:14 2015', queued=0ms, exec=1065ms >>>>> Stonith2-1_start_0 on lbv1.beta.com 'unknown error' (1): call=26, st >>>>>atus=Error, last-rc-change='Tue Mar 17 14:12:19 2015', queued=0ms, exec=1081ms >>>>> >>>>>その他のログを探してみました。 >>>>> >>>>>heartbeat起動時です。 >>>>> >>>>> >>>>> >>>>># less /var/log/pm_logconv.out >>>>>Mar 17 14:11:28 lbv1.beta.com info: Starting Heartbeat 3.0.6. >>>>>Mar 17 14:11:33 lbv1.beta.com info: Link lbv2.beta.com:eth1 is up. >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "ccm" process. (pid=13264) >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "lrmd" process. (pid=13267) >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "attrd" process. (pid=13268) >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "stonithd" process. (pid=13266) >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "cib" process. (pid=13265) >>>>>Mar 17 14:11:34 lbv1.beta.com info: Start "crmd" process. (pid=13269) >>>>> >>>>> >>>>># less /var/log/error >>>>>Mar 17 14:12:20 lbv1 crmd[13269]: error: process_lrm_event: Operation Stonith2-1_start_0 (node=lbv1.beta.com, call=26, status=4, cib-update=19, confirmed=true) Error >>>>> >>>>> >>>>>syslogからstonithをgrepしたものです >>>>> >>>>>Mar 17 14:11:34 lbv1 heartbeat: [13255]: info: Starting child client "/usr/local/heartbeat/libexec/pacemaker/stonithd" (0,0) >>>>>Mar 17 14:11:34 lbv1 heartbeat: [13266]: info: Starting "/usr/local/heartbeat/libexec/pacemaker/stonithd" as uid 0 gid 0 (pid 13266) >>>>>Mar 17 14:11:34 lbv1 stonithd[13266]: notice: crm_cluster_connect: Connecting to cluster infrastructure: heartbeat >>>>>Mar 17 14:11:34 lbv1 heartbeat: [13255]: info: the send queue length from heartbeat to client stonithd is set to 1024 >>>>>Mar 17 14:11:40 lbv1 stonithd[13266]: notice: setup_cib: Watching for stonith topology changes >>>>>Mar 17 14:11:40 lbv1 stonithd[13266]: notice: unpack_config: On loss of CCM Quorum: Ignore >>>>>Mar 17 14:11:40 lbv1 stonithd[13266]: warning: handle_startup_fencing: Blind faith: not fencing unseen nodes >>>>>Mar 17 14:11:40 lbv1 stonithd[13266]: warning: handle_startup_fencing: Blind faith: not fencing unseen nodes >>>>>Mar 17 14:11:41 lbv1 stonithd[13266]: notice: stonith_device_register: Added 'Stonith2-1' to the device list (1 active devices) >>>>>Mar 17 14:11:41 lbv1 stonithd[13266]: notice: stonith_device_register: Added 'Stonith2-2' to the device list (2 active devices) >>>>>Mar 17 14:12:04 lbv1 stonithd[13266]: notice: xml_patch_version_check: Versions did not change in patch 0.5.0 >>>>>Mar 17 14:12:20 lbv1 stonithd[13266]: notice: log_operation: Operation 'monitor' [13386] for device 'Stonith2-1' returned: -201 (Generic Pacemaker error) >>>>>Mar 17 14:12:20 lbv1 stonithd[13266]: warning: log_operation: Stonith2-1:13386 [ Performing: stonith -t external/stonith-helper -S ] >>>>>Mar 17 14:12:20 lbv1 stonithd[13266]: warning: log_operation: Stonith2-1:13386 [ failed to exec "stonith" ] >>>>>Mar 17 14:12:20 lbv1 stonithd[13266]: warning: log_operation: Stonith2-1:13386 [ failed: 2 ] >>>>> >>>>> >>>>> >>>>>宜しくお願いします。 >>>>> >>>>>以上 >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>>2015年3月17日 13:32 <renay****@ybb*****>: >>>>> >>>>>福田さん >>>>>> >>>>>>お疲れ様です。山内です。 >>>>>> >>>>>>ということは、stonith-helperのstartに問題があるようですね。 >>>>>> >>>>>>stonith-helperの先頭に >>>>>> >>>>>>#!/bin/bash -x >>>>>> >>>>>> >>>>>>を入れて、クラスタを起動すると何かわかるかも知れません。 >>>>>> >>>>>>ちなみに、stonith-helperのログもどこかに出ていると思うのですが。。。 >>>>>> >>>>>> >>>>>> >>>>>>以上です。 >>>>>> >>>>>>----- Original Message ----- >>>>>>>From: Masamichi Fukuda - elf-systems <masamichi_fukud****@elf-s*****> >>>>>>>To: 山内英生 <renay****@ybb*****>; "linux****@lists*****" <linux****@lists*****> >>>>>> >>>>>>>Date: 2015/3/17, Tue 12:31 >>>>>>>Subject: Re: [Linux-ha-jp] スプリットブレイン時のSTONITHエラーについて >>>>>>> >>>>>>> >>>>>>>山内さん >>>>>>>cc:松島さん >>>>>>> >>>>>>>こんにちは、福田です。 >>>>>>> >>>>>>>同じディレクトリにxen0はありました。 >>>>>>> >>>>>>># pwd >>>>>>>/usr/local/heartbeat/lib/stonith/plugins/external >>>>>>> >>>>>>># ls >>>>>>>drac5 ibmrsa kdumpcheck riloe vmware >>>>>>>dracmc-telnet ibmrsa-telnet libvirt ssh xen0 >>>>>>>hetzner ipmi nut stonith-helper xen0-ha >>>>>>>hmchttp ippower9258 rackpdu vcenter >>>>>>> >>>>>>>宜しくお願いします。 >>>>>>> >>>>>>>以上 >>>>>>> >>>>>>> >>>>>>> >>>>>>>2015-03-17 10:53 GMT+09:00 <renay****@ybb*****>: >>>>>>> >>>>>>>福田さん >>>>>>>>cc:松島さん >>>>>>>> >>>>>>>>お疲れ様です。山内です。 >>>>>>>> >>>>>>>>>標準出力や標準エラー出力はありませんでした。 >>>>>>>>> >>>>>>>>>stonith-helperがおかしいのでしょうか。 >>>>>>>>>stonith-helperはシェルスクリプトなのでインストールはあまり気にしていなかったのですが。 >>>>>>>>>stonith-helperはここに配置されています。 >>>>>>>>>/usr/local/heartbeat/lib/stonith/plugins/external/stonith-helper >>>>>>>> >>>>>>>>このディレクトリにxen0もありますか? >>>>>>>>無いようでしたら、問題がありますので、一度、stonith-helperのファイルを属性などはそのまま、xen0と同じディレクトリに >>>>>>>>コピーしてみてください。 >>>>>>>> >>>>>>>>それで稼働するなら、pm_extrasのインストールに問題があるということになります。 >>>>>>>> >>>>>>>>以上です。 >>>>>>>> >>>>>>>>----- Original Message ----- >>>>>>>>>From: Masamichi Fukuda - elf-systems <masamichi_fukud****@elf-s*****> >>>>>>>>>To: 山内英生 <renay****@ybb*****>; "linux****@lists*****" <linux****@lists*****> >>>>>>>> >>>>>>>>>Date: 2015/3/17, Tue 10:31 >>>>>>>>>Subject: Re: [Linux-ha-jp] スプリットブレイン時のSTONITHエラーについて >>>>>>>>> >>>>>>>>> >>>>>>>>>山内さん >>>>>>>>>cc:松島さん >>>>>>>>> >>>>>>>>>おはようございます、福田です。 >>>>>>>>>crmの例をありがとうございます。 >>>>>>>>> >>>>>>>>>早速、こちらの環境に合わせてみました。 >>>>>>>>> >>>>>>>>>$ cat test.crm >>>>>>>>>### Cluster Option ### >>>>>>>>>property \ >>>>>>>>> no-quorum-policy="ignore" \ >>>>>>>>> stonith-enabled="true" \ >>>>>>>>> startup-fencing="false" \ >>>>>>>>> stonith-timeout="710s" \ >>>>>>>>> crmd-transition-delay="2s" >>>>>>>>> >>>>>>>>>### Resource Default ### >>>>>>>>>rsc_defaults \ >>>>>>>>> resource-stickiness="INFINITY" \ >>>>>>>>> migration-threshold="1" >>>>>>>>> >>>>>>>>>### Group Configuration ### >>>>>>>>>group HAvarnish \ >>>>>>>>> vip_208 \ >>>>>>>>> varnishd >>>>>>>>> >>>>>>>>>group grpStonith1 \ >>>>>>>>> Stonith1-1 \ >>>>>>>>> Stonith1-2 >>>>>>>>> >>>>>>>>>group grpStonith2 \ >>>>>>>>> Stonith2-1 \ >>>>>>>>> Stonith2-2 >>>>>>>>> >>>>>>>>>### Clone Configuration ### >>>>>>>>>clone clone_ping \ >>>>>>>>> ping >>>>>>>>> >>>>>>>>>### Fencing Topology ### >>>>>>>>>fencing_topology \ >>>>>>>>> lbv1.beta.com: Stonith1-1 Stonith1-2 \ >>>>>>>>> lbv2.beta.com: Stonith2-1 Stonith2-2 >>>>>>>>> >>>>>>>>>### Primitive Configuration ### >>>>>>>>>primitive vip_208 ocf:heartbeat:IPaddr2 \ >>>>>>>>> params \ >>>>>>>>> ip="192.168.17.208" \ >>>>>>>>> nic="eth0" \ >>>>>>>>> cidr_netmask="24" \ >>>>>>>>> op start interval="0s" timeout="90s" on-fail="restart" \ >>>>>>>>> op monitor interval="5s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="100s" on-fail="fence" >>>>>>>>> >>>>>>>>>primitive varnishd lsb:varnish \ >>>>>>>>> op start interval="0s" timeout="90s" on-fail="restart" \ >>>>>>>>> op monitor interval="10s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="100s" on-fail="fence" >>>>>>>>> >>>>>>>>>primitive ping ocf:pacemaker:ping \ >>>>>>>>> params \ >>>>>>>>> name="default_ping_set" \ >>>>>>>>> host_list="192.168.17.254" \ >>>>>>>>> multiplier="100" \ >>>>>>>>> dampen="1" \ >>>>>>>>> op start interval="0s" timeout="90s" on-fail="restart" \ >>>>>>>>> op monitor interval="10s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="100s" on-fail="fence" >>>>>>>>> >>>>>>>>>primitive Stonith1-1 stonith:external/stonith-helper \ >>>>>>>>> params \ >>>>>>>>> pcmk_reboot_retries="1" \ >>>>>>>>> pcmk_reboot_timeout="40s" \ >>>>>>>>> hostlist="lbv1.beta.com" \ >>>>>>>>> dead_check_target="192.168.17.132 10.0.17.132" \ >>>>>>>>> standby_check_command="/usr/local/sbin/crm_resource -r varnishd -W | grep -q `hostname`" \ >>>>>>>>> run_online_check="yes" \ >>>>>>>>> op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>> >>>>>>>>>primitive Stonith1-2 stonith:external/xen0 \ >>>>>>>>> params \ >>>>>>>>> pcmk_reboot_timeout="60s" \ >>>>>>>>> hostlist="lbv1.beta.com:/etc/xen/lbv1.cfg" \ >>>>>>>>> dom0="xen0.beta.com" \ >>>>>>>>> op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>> op monitor interval="3600s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>> >>>>>>>>>primitive Stonith2-1 stonith:external/stonith-helper \ >>>>>>>>> params \ >>>>>>>>> pcmk_reboot_retries="1" \ >>>>>>>>> pcmk_reboot_timeout="40s" \ >>>>>>>>> hostlist="lbv2.beta.com" \ >>>>>>>>> dead_check_target="192.168.17.133 10.0.17.133" \ >>>>>>>>> standby_check_command="/usr/local/sbin/crm_resource -r varnishd -W | grep -q `hostname`" \ >>>>>>>>> run_online_check="yes" \ >>>>>>>>> op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>> >>>>>>>>>primitive Stonith2-2 stonith:external/xen0 \ >>>>>>>>> params \ >>>>>>>>> pcmk_reboot_timeout="60s" \ >>>>>>>>> hostlist="lbv2.beta.com:/etc/xen/lbv2.cfg" \ >>>>>>>>> dom0="xen0.beta.com" \ >>>>>>>>> op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>> op monitor interval="3600s" timeout="60s" on-fail="restart" \ >>>>>>>>> op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>> >>>>>>>>>### Resource Location ### >>>>>>>>>location HA_location-1 HAvarnish \ >>>>>>>>> rule 200: #uname eq lbv1.beta.com \ >>>>>>>>> rule 100: #uname eq lbv2.beta.com >>>>>>>>> >>>>>>>>>location HA_location-2 HAvarnish \ >>>>>>>>> rule -INFINITY: not_defined default_ping_set or default_ping_set lt 100 >>>>>>>>> >>>>>>>>>location HA_location-3 grpStonith1 \ >>>>>>>>> rule -INFINITY: #uname eq lbv1.beta.com >>>>>>>>> >>>>>>>>>location HA_location-4 grpStonith2 \ >>>>>>>>> rule -INFINITY: #uname eq lbv2.beta.com >>>>>>>>> >>>>>>>>> >>>>>>>>>これを流しこんだところ、昨日とはメッセージが異なります。 >>>>>>>>>pingのメッセージはなくなっていました。 >>>>>>>>> >>>>>>>>># crm_mon -rfA >>>>>>>>>Last updated: Tue Mar 17 10:21:28 2015 >>>>>>>>>Last change: Tue Mar 17 10:21:09 2015 >>>>>>>>>Stack: heartbeat >>>>>>>>>Current DC: lbv2.beta.com (82ffc36f-1ad8-8686-7db0-35686465c624) - parti >>>>>>>>>tion with quorum >>>>>>>>>Version: 1.1.12-561c4cf >>>>>>>>>2 Nodes configured >>>>>>>>>8 Resources configured >>>>>>>>> >>>>>>>>> >>>>>>>>>Online: [ lbv1.beta.com lbv2.beta.com ] >>>>>>>>> >>>>>>>>>Full list of resources: >>>>>>>>> >>>>>>>>> Resource Group: HAvarnish >>>>>>>>> vip_208 (ocf::heartbeat:IPaddr2): Started lbv1.beta.com >>>>>>>>> varnishd (lsb:varnish): Started lbv1.beta.com >>>>>>>>> Resource Group: grpStonith1 >>>>>>>>> Stonith1-1 (stonith:external/stonith-helper): Stopped >>>>>>>>> Stonith1-2 (stonith:external/xen0): Stopped >>>>>>>>> Resource Group: grpStonith2 >>>>>>>>> Stonith2-1 (stonith:external/stonith-helper): Stopped >>>>>>>>> Stonith2-2 (stonith:external/xen0): Stopped >>>>>>>>> Clone Set: clone_ping [ping] >>>>>>>>> Started: [ lbv1.beta.com lbv2.beta.com ] >>>>>>>>> >>>>>>>>>Node Attributes: >>>>>>>>>* Node lbv1.beta.com: >>>>>>>>> + default_ping_set : 100 >>>>>>>>>* Node lbv2.beta.com: >>>>>>>>> + default_ping_set : 100 >>>>>>>>> >>>>>>>>>Migration summary: >>>>>>>>>* Node lbv2.beta.com: >>>>>>>>> Stonith1-1: migration-threshold=1 fail-count=1000000 last-failure='Tue Mar 17 >>>>>>>>> 10:21:17 2015' >>>>>>>>>* Node lbv1.beta.com: >>>>>>>>> Stonith2-1: migration-threshold=1 fail-count=1000000 last-failure='Tue Mar 17 >>>>>>>>> 10:21:17 2015' >>>>>>>>> >>>>>>>>>Failed actions: >>>>>>>>> Stonith1-1_start_0 on lbv2.beta.com 'unknown error' (1): call=31, st >>>>>>>>>atus=Error, last-rc-change='Tue Mar 17 10:21:15 2015', queued=0ms, exec=1082ms >>>>>>>>> Stonith2-1_start_0 on lbv1.beta.com 'unknown error' (1): call=31, st >>>>>>>>>atus=Error, last-rc-change='Tue Mar 17 10:21:16 2015', queued=0ms, exec=1079ms >>>>>>>>> >>>>>>>>> >>>>>>>>>/var/log/ha-debugのログです。 >>>>>>>>> >>>>>>>>>IPaddr2(vip_208)[7851]: 2015/03/17_10:21:22 INFO: Adding inet address 192.168.17.208/24 with broadcast address 192.168.17.255 to device eth0 >>>>>>>>>IPaddr2(vip_208)[7851]: 2015/03/17_10:21:22 INFO: Bringing device eth0 up >>>>>>>>>IPaddr2(vip_208)[7851]: 2015/03/17_10:21:22 INFO: /usr/libexec/heartbeat/send_arp -i 200 -r 5 -p /var/run/resource-agents/send_arp-192.168.17.208 eth0 192.168.17.208 auto not_used not_used >>>>>>>>> >>>>>>>>>標準出力や標準エラー出力はありませんでした。 >>>>>>>>> >>>>>>>>>stonith-helperがおかしいのでしょうか。 >>>>>>>>>stonith-helperはシェルスクリプトなのでインストールはあまり気にしていなかったのですが。 >>>>>>>>>stonith-helperはここに配置されています。 >>>>>>>>>/usr/local/heartbeat/lib/stonith/plugins/external/stonith-helper >>>>>>>>> >>>>>>>>> >>>>>>>>> >>>>>>>>>宜しくお願いします。 >>>>>>>>> >>>>>>>>>以上 >>>>>>>>> >>>>>>>>> >>>>>>>>> >>>>>>>>>2015-03-17 9:45 GMT+09:00 <renay****@ybb*****>: >>>>>>>>> >>>>>>>>>福田さん >>>>>>>>>> >>>>>>>>>>おはようございます。山内です。 >>>>>>>>>> >>>>>>>>>>念の為、手元にある複数のstonithを利用した場合の例を抜粋してお送りします。 >>>>>>>>>>(実際には、改行に気を付けてください) >>>>>>>>>> >>>>>>>>>>以下の例は、PM1.1系での設定で、 >>>>>>>>>>nodeaは、prmStonith1-1、 prmStonith1-2の順でstonithが実行されます。 >>>>>>>>>>nodebは、prmStonith2-1、 prmStonith2-2の順でstonithが実行されます。 >>>>>>>>>> >>>>>>>>>>stonith自体は、helperとsshです。 >>>>>>>>>> >>>>>>>>>> >>>>>>>>>>(snip) >>>>>>>>>>### Group Configuration ### >>>>>>>>>>group grpStonith1 \ >>>>>>>>>>prmStonith1-1 \ >>>>>>>>>>prmStonith1-2 >>>>>>>>>> >>>>>>>>>>group grpStonith2 \ >>>>>>>>>>prmStonith2-1 \ >>>>>>>>>>prmStonith2-2 >>>>>>>>>> >>>>>>>>>>### Fencing Topology ### >>>>>>>>>>fencing_topology \ >>>>>>>>>>nodea: prmStonith1-1 prmStonith1-2 \ >>>>>>>>>>nodeb: prmStonith2-1 prmStonith2-2 >>>>>>>>>>(snp) >>>>>>>>>>primitive prmStonith1-1 stonith:external/stonith-helper \ >>>>>>>>>>params \ >>>>>>>>>> >>>>>>>>>>pcmk_reboot_retries="1" \ >>>>>>>>>>pcmk_reboot_timeout="40s" \ >>>>>>>>>>hostlist="nodea" \ >>>>>>>>>>dead_check_target="192.168.28.60 192.168.28.70" \ >>>>>>>>>>standby_check_command="/usr/sbin/crm_resource -r prmRES -W | grep -qi `hostname`" \ >>>>>>>>>>run_online_check="yes" \ >>>>>>>>>>op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>>> >>>>>>>>>>primitive prmStonith1-2 stonith:external/ssh \ >>>>>>>>>>params \ >>>>>>>>>>pcmk_reboot_timeout="60s" \ >>>>>>>>>>hostlist="nodea" \ >>>>>>>>>>op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op monitor interval="3600s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>>> >>>>>>>>>>primitive prmStonith2-1 stonith:external/stonith-helper \ >>>>>>>>>>params \ >>>>>>>>>>pcmk_reboot_retries="1" \ >>>>>>>>>>pcmk_reboot_timeout="40s" \ >>>>>>>>>>hostlist="nodeb" \ >>>>>>>>>>dead_check_target="192.168.28.61 192.168.28.71" \ >>>>>>>>>>standby_check_command="/usr/sbin/crm_resource -r prmRES -W | grep -qi `hostname`" \ >>>>>>>>>>run_online_check="yes" \ >>>>>>>>>>op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>>> >>>>>>>>>>primitive prmStonith2-2 stonith:external/ssh \ >>>>>>>>>>params \ >>>>>>>>>>pcmk_reboot_timeout="60s" \ >>>>>>>>>>hostlist="nodeb" \ >>>>>>>>>>op start interval="0s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op monitor interval="3600s" timeout="60s" on-fail="restart" \ >>>>>>>>>>op stop interval="0s" timeout="60s" on-fail="ignore" >>>>>>>>>>(snip) >>>>>>>>>>location rsc_location-grpStonith1-2 grpStonith1 \ >>>>>>>>>>rule -INFINITY: #uname eq nodea >>>>>>>>>>location rsc_location-grpStonith2-3 grpStonith2 \ >>>>>>>>>>rule -INFINITY: #uname eq nodeb >>>>>>>>>> >>>>>>>>>> >>>>>>>>>>以上です。 >>>>>>>>>> >>>>>>>>>> >>>>>>>>>> >>>>>>>>>> >>>>>>>>> >>>>>>>>>-- >>>>>>>>> >>>>>>>>>ELF Systems >>>>>>>>>Masamichi Fukuda >>>>>>>>>mail to: masamichi_fukud****@elf-s***** >>>>>>>>> >>>>>>>>> >>>>>>>> >>>>>>>> >>>>>>>>_______________________________________________ >>>>>>>>Linux-ha-japan mailing list >>>>>>>>Linux****@lists***** >>>>>>>>http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan >>>>>>>> >>>>>>> >>>>>>> >>>>>>>-- >>>>>>> >>>>>>>ELF Systems >>>>>>>Masamichi Fukuda >>>>>>>mail to: masamichi_fukud****@elf-s***** >>>>>>> >>>>>>> >>>>>> >>>>>>_______________________________________________ >>>>>>Linux-ha-japan mailing list >>>>>>Linux****@lists***** >>>>>>http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan >>>>>> >>>>> >>>>> >>>>>-- >>>>> >>>>>ELF Systems >>>>>Masamichi Fukuda >>>>>mail to: masamichi_fukud****@elf-s***** >>>>> >>>>> >>>> >>>>_______________________________________________ >>>>Linux-ha-japan mailing list >>>>Linux****@lists***** >>>>http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan >>>> >>> >>> >>>-- >>> >>>ELF Systems >>>Masamichi Fukuda >>>mail to: masamichi_fukud****@elf-s***** >>> >>> >> >>_______________________________________________ >>Linux-ha-japan mailing list >>Linux****@lists***** >>http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan >> > >-- > >ELF Systems >Masamichi Fukuda >mail to: masamichi_fukud****@elf-s***** > > >