雲雀 路朗
hibar****@nttco*****
2011年 11月 30日 (水) 15:37:52 JST
酒井様 雲雀です。 確認作業を行っていただきありがとうございます。 > 確認ですが、これは当環境だけの事象でしょうか? 断定はできませんが、少なくとも手元の環境 (実マシン RHEL6.1とVMWARE CentOS6.0)で同じ 動作をさせたところ、問題なく設定反映が行われております。 また、コミュニティに上がってきた情報の中で、 これまでに同様の事象が発生した例もございません。 heartbeatを再起動させた際、l7vsdプロセスが再起動している かを確認するため、以下の情報をいただけますでしょうか? 手順2時点でのl7vsdのpidと、手順5時点でのl7vsdのpid # pgrep l7vsd 等でご確認ください。 以上、よろしくお願いいたします。 (2011/11/30 15:20), 酒井 聡司 wrote: > 雲雀様 > > 酒井です。返事が遅くなりました。 > 環境縮小のため1台で行いました。 > 結果ですが、どちらも99となりました。 > > 以下手順です。 > 0. SNMP設定実施 > 1. /etc/init.d/heartbeat start > 2. snmpgetで取得⇒ 99 > 3. vi l7vs.cf > session_thread_pool_size 100⇒1000 > 4. /etc/init.d/heartbeat restart > 5. snmpgetで取得⇒ 99 > > > > On Thu, 10 Nov 2011 19:57:36 +0900 > 雲雀 路朗<hibar****@nttco*****> wrote: > >> 酒井様 >> >> 雲雀です。 >> >>>> (Host1) >>>> ・l7vs.cfの設定を変更 >>>> session_thread_pool_size = 100 ⇒ 1000 >>>> (Host2) >>>> ・l7vs.cfの設定を変更 >>>> session_thread_pool_size = 100 ⇒ 1000 >>>> (Host1) >>>> ・Heartbeat再起動 >>>> # /etc/init.d/heartbeat restart >>>> ⇒Host2でActiveConn 100が最大 (※1) >> >> Host2はまだl7vsdが再起動されていないので >> ここまでは、正しい動作に思えます。 >> その次の >> >>>> (Host2) >>>> ・Heartbeat再起動 >>>> # /etc/init.d/heartbeat restart >>>> ⇒Host1でActiveConn 100が最大 (※2) >> >> では、既にl7vsdは再起動しているはずなので、 >> 設定も反映されているはずです。 >> >> session_thread_pool_sizeの値が変更されたかは >> snmpによる監視でもウォッチできます。 >> >> ※1と2のタイミングで、snmpgetを利用して、 >> session_thread_pool_sizeの値を確認してみて >> いただけますでしょうか。 >> #負荷はかけずに実施してください。 >> >> ※1の時点でsnmpgetの結果が99 >> ※2の時点でsnmpgetの結果が999 >> であれば、設定の反映は正しく行われて >> いることになります。 >> >> >> snmpgetを利用した、session_thread_pool_size値の確認 >> 方法は以下のとおりです。 >> >> 1.snmpd.confを以下の内容に編集。 >> ===================================== >> master agentx >> com2sec ultramonkey_sec default public >> group ultramonkey_group v1 ultramonkey_sec >> group ultramonkey_group v2c ultramonkey_sec >> group ultramonkey_group usm ultramonkey_sec >> view ultramonkey included .1 >> access ultramonkey_group "" any noauth exact ultramonkey >> none none >> trap2sink 127.0.0.1 public >> ====================================== >> >> 2.MIBファイルのインストール >> /usr/share/doc/ultramonkeyl7-3.0.x/mibs/ULTRAMONKEY-L7-MIB.txt を >> /usr/share/snmp/mibs/ 配下にコピーしてください。 >> >> # cp /usr/share/doc/ultramonkeyl7-3.0.x/mibs/ULTRAMONKEY-L7-MIB.txt >> /usr/share/snmp/mibs/ >> >> 3.snmpdの起動 >> # /etc/init.d/snmpd start >> >> 4.l7vs.cfの編集 >> [snmpagent]内の設定 enable = "false" を enable= "true" に変更して >> ください。 >> >> 5.session_thread_pool_sizeの値を確認 >> ※1と2のタイミングで、snmpgetを実行 >> >> # snmpget -v 2c -c public localhost ULTRAMONKEY-L7-MIB::l7vsVsSes >> sionPoolCount.1 >> >> >> 手間のかかる作業になってしまうかと思いますので、 >> お時間があるときにでも試してみていただければと思います。 >> >>>> もうひとつ、l7directord.cfのmaxconnについて、 >>>> 上の操作をした際はmaxconn = 50としていましたが、 >>>> 実際は300を超えた接続がなされています。 >>>> 困っているわけではありませんが、うまく反映されていないようです。 >> >> こちらについては、以下のバグが確認されております。 >> >> Client の accept() から RealServer への connect() までの時差の間に大量接 >> 続があると、瞬間的に設定した最大接続数を超えて、RealServer に接続されて >> しまう。 >> #残念ながら今のところ、修正パッチは出ておりません。 >> >> 以上、よろしくお願いいたします。 >> >> >> >> (2011/11/01 16:27), 酒井 聡司 wrote: >>> 雲雀様 >>> >>> 返信ありがとうございます。酒井です。 >>> 元々の手順もほぼ同じですが、記載いただいた手順でやってみました。 >>> >>> (Host1) >>> ・l7vs.cfの設定を変更 >>> session_thread_pool_size = 100 ⇒ 1000 >>> (Host2) >>> ・l7vs.cfの設定を変更 >>> session_thread_pool_size = 100 ⇒ 1000 >>> (Host1) >>> ・Heartbeat再起動 >>> # /etc/init.d/heartbeat restart >>> ⇒Host2でActiveConn 100が最大 >>> >>> (Host2) >>> ・Heartbeat再起動 >>> # /etc/init.d/heartbeat restart >>> ⇒Host1でActiveConn 100が最大 >>> >>> その後、 >>> (Host2) >>> ・OS再起動 >>> # reboot >>> ・再起動後heartbeat起動 >>> # /etc/init.d/heartbeat start >>> (Host1) >>> ・Heartbeat再起動 >>> # /etc/init.d/heartbeat restart >>> ⇒Host2でActiveConn 700前後が最大 >>> >>> 700前後で留まったのはスペックかなと考えています。 >>> >>> >>> もうひとつ、l7directord.cfのmaxconnについて、 >>> 上の操作をした際はmaxconn = 50としていましたが、 >>> 実際は300を超えた接続がなされています。 >>> 困っているわけではありませんが、うまく反映されていないようです。 >>> >>> 以上、よろしくお願いします。 >>> >>> >>> On Fri, 28 Oct 2011 13:15:47 +0900 >>> 雲雀 路朗<hibar****@nttco*****> wrote: >>> >>>> 酒井様 >>>> >>>> 雲雀です。 >>>> 遅レスすみません。 >>>> >>>>>> L7vsdの記載があるのでHeartbeatの再起動でいけるのかと思ったのですが。 >>>> Heartbeat 2.x ですし、再起動で設定反映できるはずなんですが・・・ >>>> >>>>>> 試しに両系設定して何度かHeartbeat停止で切り替えてみましたが、 >>>>>> ActiveConnは変わりませんでした。 >>>> このときのコマンド実行内容を実行した順番どおりに教えて >>>> いただけないでしょうか? >>>> >>>> 例えば、↓といった感じで。 >>>> >>>> (Host1) >>>> ・l7vs.cfの設定を変更 >>>> (Host2) >>>> ・l7vs.cfの設定を変更 >>>> (Host1) >>>> ・Heartbeat再起動 >>>> # /etc/init.d/heartbeat restart >>>> (Host2) >>>> ・Heartbeat再起動 >>>> # /etc/init.d/heartbeat restart >>>> >>>> 以上、よろしくお願いいたします。 >>>> >>>> (2011/10/20 12:54), 酒井 聡司 wrote: >>>>> 雲雀様、竹林様 >>>>> >>>>> 返信ありがとうございます。酒井です。 >>>>> >>>>> インストールはマニュアルに沿って行い、Heartbeatは以下でインストールしました。 >>>>> heartbeat-2.1.4-1.x86_64.rpm >>>>> >>>>> また、作業時は両系設定するのは手間なので片方だけ設定して動かしています。 >>>>> 試しに両系設定して何度かHeartbeat停止で切り替えてみましたが、ActiveConnは変わりませんでした。 >>>>> OS再起動で反映される状態です。 >>>>> >>>>> crm_monの出力は以下です。 >>>>> ============ >>>>> Last updated: Thu Oct 20 12:50:18 2011 >>>>> Current DC: Host1 >>>>> 2 Nodes configured. >>>>> 2 Resources configured. >>>>> ============ >>>>> >>>>> Node: Host1: online >>>>> Node: Host2: OFFLINE >>>>> >>>>> Resource Group: grpUltraMonkey1 >>>>> prmVIPcheck (ocf::heartbeat:VIPcheck): Started Host1 >>>>> prmVIP (ocf::heartbeat:IPaddr2): Started Host1 >>>>> prmVIP2 (ocf::heartbeat:IPaddr2): Started Host1 >>>>> prmL7directord (ocf::heartbeat:L7directord): Started Host1 >>>>> prmSSLProxy (ocf::heartbeat:SSLProxy): Started Host1 >>>>> Clone Set: grpClone1 >>>>> prmL7vsd:0 (ocf::heartbeat:L7vsd): Started Host1 >>>>> prmL7vsd:1 (ocf::heartbeat:L7vsd): Stopped >>>>> >>>>> L7vsdの記載があるのでHeartbeatの再起動でいけるのかと思ったのですが。 >>>>> >>>>> >>>>> On Tue, 18 Oct 2011 19:31:13 +0900 >>>>> Shinya TAKEBAYASHI<takeb****@oss*****> wrote: >>>>> >>>>>> 竹林です. >>>>>> >>>>>>> session_thread_pool_size の設定を変更した場合、設定の反映には >>>>>>> l7vsdプロセスの再起動が必要となります。 >>>>>>> heartbeatの再起動を行った場合、l7vsdも再起動することになりますので、 >>>>>>> 設定の反映が行われるはずなのですが・・・ >>>>>> >>>>>> Heartbeat のバージョンが古い(1.x)と,l7vsd は感知しないで >>>>>> l7directord と IPaddr だけが監視対象になっているので・・・. >>>>>> >>>>>> >>>>>> 酒井さん,Heartbeat は何をお使いで,どう設定しましたか. >>>>>> もし Heartbeat 2.x であれば,crm_mon の出力をいただけますか. >>>>>> >>>>>> ----------------------------------------------------------- >>>>>> Shinya TAKEBAYASHI >>>>>> >>>>>> E-mail: takeb****@oss***** >>>>>> GPG ID: 395EFCE8 >>>>>> GPG FP: 58B2 B5D0 A692 1BD8 328B E31E E027 AC35 395E FCE8 >>>>>> ----------------------------------------------------------- >>>>>> >>>>> >>>>> _______________________________________________ >>>>> Ultramonkey-l7-users mailing list >>>>> Ultra****@lists***** >>>>> http://lists.sourceforge.jp/mailman/listinfo/ultramonkey-l7-users >>>>> >>>>> >>>> >>>> >>>> -- >>>> ============================================== >>>> NTTコムウェア株式会社 >>>> 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 >>>> 雲雀 路朗(ひばり みちろう) >>>> E-Mail:hibar****@nttco***** >>>> TEL:043-211-2452 >>>> ============================================== >>>> >>> >>> >>> >> >> >> -- >> ============================================== >> NTTコムウェア株式会社 >> 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 >> 雲雀 路朗(ひばり みちろう) >> E-Mail:hibar****@nttco***** >> TEL:043-211-2452 >> ============================================== >> >> > > > > > -- ============================================== NTTコムウェア株式会社 品質生産性技術本部 技術SE部 基盤ソフトSE・OSS部門 雲雀 路朗(ひばり みちろう) E-Mail:hibar****@nttco***** TEL:043-211-2452 ==============================================