<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Feb 22, 2022 at 10:31 AM Bo Peng <<a href="mailto:pengbo@sraoss.co.jp">pengbo@sraoss.co.jp</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hello,<br>
<br>
> Thank you Peng for versification.<br>
> I have pushed the changes to master branch.<br>
> What do you think should we backport it to the released branches?<br>
<br>
Thank you, Usama.<br>
Sorry for the late response.<br>
Yes. I think we should backport it to the released branches.<br></blockquote><div><br></div><div>Thanks, I have backported it to all supported branches </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
> Best regards<br>
> Muhammad Usama<br>
> <br>
> On Thu, Jan 13, 2022 at 7:06 AM Bo Peng <<a href="mailto:pengbo@sraoss.co.jp" target="_blank">pengbo@sraoss.co.jp</a>> wrote:<br>
> <br>
> > Thank you, Usama.<br>
> ><br>
> > > VIP is up on current node is in fact misleading when the VIP is not set<br>
> > in<br>
> > > pgpool.conf,<br>
> > > while the quorum status gets already reported in Quorum state field.<br>
> > > Actually the value of "Is VIP up on current node" comes from<br>
> > 'node->escalated'<br>
> > > field<br>
> > > that gives the status of wd_escalation process execution status. So I<br>
> > think<br>
> > > the field name<br>
> > > should be canged to "node escalation" from "VIP up on node".<br>
> > ><br>
> > > I have cooked up a quick patch for that, Please let me know what you<br>
> > think<br>
> > > about that.<br>
> ><br>
> > Your patch looks good.<br>
> > Could you commit it?<br>
> ><br>
> > On Tue, 21 Dec 2021 11:30:49 +0500<br>
> > Muhammad Usama <<a href="mailto:m.usama@gmail.com" target="_blank">m.usama@gmail.com</a>> wrote:<br>
> ><br>
> > > Hi Ishii-San,<br>
> > ><br>
> > > Sorry for a very delayed response, and thank you for pointing out the<br>
> > issue.<br>
> > ><br>
> > > On Tue, Dec 7, 2021 at 10:55 AM Tatsuo Ishii <<a href="mailto:ishii@sraoss.co.jp" target="_blank">ishii@sraoss.co.jp</a>> wrote:<br>
> > ><br>
> > > > Hi Usama,<br>
> > > ><br>
> > > > pcp_watchdog_info displays information of watchdog something like this:<br>
> > > ><br>
> > > > $ pcp_watchdog_info -w -p 50001<br>
> > > > 4 4 YES localhost:50000 Linux tishii-CFSV9-2 localhost<br>
> > > ><br>
> > > > localhost:50000 Linux tishii-CFSV9-2 localhost 50000 50002 4 LEADER 0<br>
> > > > MEMBER<br>
> > > > localhost:50004 Linux tishii-CFSV9-2 localhost 50004 50006 7 STANDBY 0<br>
> > > > MEMBER<br>
> > > > localhost:50008 Linux tishii-CFSV9-2 localhost 50008 50010 7 STANDBY 0<br>
> > > > MEMBER<br>
> > > > localhost:50012 Linux tishii-CFSV9-2 localhost 50012 50014 7 STANDBY 0<br>
> > > > MEMBER<br>
> > > ><br>
> > > > The "YES" in the very first line means that VIP is up on this node<br>
> > > > according to the manual. But actually this is not correct because I<br>
> > > > have created the watchdog cluster using watchdog_setup and it never<br>
> > > > enables VIP. I guess it actually means whether the quorum exists or<br>
> > > > not.<br>
> > > ><br>
> > ><br>
> > > VIP is up on current node is in fact misleading when the VIP is not set<br>
> > in<br>
> > > pgpool.conf,<br>
> > > while the quorum status gets already reported in Quorum state field.<br>
> > > Actually the value of "Is VIP up on current node" comes from<br>
> > 'node->escalated'<br>
> > > field<br>
> > > that gives the status of wd_escalation process execution status. So I<br>
> > think<br>
> > > the field name<br>
> > > should be canged to "node escalation" from "VIP up on node".<br>
> > ><br>
> > > I have cooked up a quick patch for that, Please let me know what you<br>
> > think<br>
> > > about that.<br>
> > ><br>
> > > Best regards<br>
> > > Muhammad Usama<br>
> > ><br>
> > ><br>
> > ><br>
> > > ><br>
> > > > Anyway this is misleading and should be fixed IMO.<br>
> > > ><br>
> > > > Note that "-v" (verbose) output also gives wrong information.<br>
> > > ><br>
> > > > $ pcp_watchdog_info -w -p 50001 -v<br>
> > > > Watchdog Cluster Information<br>
> > > > Total Nodes              : 4<br>
> > > > Remote Nodes             : 3<br>
> > > > Member Remote Nodes      : 3<br>
> > > > Alive Remote Nodes       : 3<br>
> > > > Nodes required for quorum: 3<br>
> > > > Quorum state             : QUORUM EXIST<br>
> > > > VIP up on local node     : YES<br>
> > > > Leader Node Name         : localhost:50000 Linux tishii-CFSV9-2<br>
> > > > Leader Host Name         : localhost<br>
> > > ><br>
> > > > Watchdog Node Information<br>
> > > > Node Name         : localhost:50000 Linux tishii-CFSV9-2<br>
> > > > Host Name         : localhost<br>
> > > > Delegate IP       : Not_Set<br>
> > > > Pgpool port       : 50000<br>
> > > > Watchdog port     : 50002<br>
> > > > Node priority     : 4<br>
> > > > Status            : 4<br>
> > > > Status Name       : LEADER<br>
> > > > Membership Status : MEMBER<br>
> > > ><br>
> > > > Node Name         : localhost:50004 Linux tishii-CFSV9-2<br>
> > > > Host Name         : localhost<br>
> > > > Delegate IP       : Not_Set<br>
> > > > Pgpool port       : 50004<br>
> > > > Watchdog port     : 50006<br>
> > > > Node priority     : 3<br>
> > > > Status            : 7<br>
> > > > Status Name       : STANDBY<br>
> > > > Membership Status : MEMBER<br>
> > > ><br>
> > > > Node Name         : localhost:50008 Linux tishii-CFSV9-2<br>
> > > > Host Name         : localhost<br>
> > > > Delegate IP       : Not_Set<br>
> > > > Pgpool port       : 50008<br>
> > > > Watchdog port     : 50010<br>
> > > > Node priority     : 2<br>
> > > > Status            : 7<br>
> > > > Status Name       : STANDBY<br>
> > > > Membership Status : MEMBER<br>
> > > ><br>
> > > > Node Name         : localhost:50012 Linux tishii-CFSV9-2<br>
> > > > Host Name         : localhost<br>
> > > > Delegate IP       : Not_Set<br>
> > > > Pgpool port       : 50012<br>
> > > > Watchdog port     : 50014<br>
> > > > Node priority     : 1<br>
> > > > Status            : 7<br>
> > > > Status Name       : STANDBY<br>
> > > > Membership Status : MEMBER<br>
> > > ><br>
> > > > Best reagards,<br>
> > > > --<br>
> > > > Tatsuo Ishii<br>
> > > > SRA OSS, Inc. Japan<br>
> > > > English: <a href="http://www.sraoss.co.jp/index_en.php" rel="noreferrer" target="_blank">http://www.sraoss.co.jp/index_en.php</a><br>
> > > > Japanese:<a href="http://www.sraoss.co.jp" rel="noreferrer" target="_blank">http://www.sraoss.co.jp</a><br>
> > > > _______________________________________________<br>
> > > > pgpool-hackers mailing list<br>
> > > > <a href="mailto:pgpool-hackers@pgpool.net" target="_blank">pgpool-hackers@pgpool.net</a><br>
> > > > <a href="http://www.pgpool.net/mailman/listinfo/pgpool-hackers" rel="noreferrer" target="_blank">http://www.pgpool.net/mailman/listinfo/pgpool-hackers</a><br>
> > > ><br>
> ><br>
> ><br>
> > --<br>
> > Bo Peng <<a href="mailto:pengbo@sraoss.co.jp" target="_blank">pengbo@sraoss.co.jp</a>><br>
> > SRA OSS, Inc. Japan<br>
> > <a href="http://www.sraoss.co.jp/" rel="noreferrer" target="_blank">http://www.sraoss.co.jp/</a><br>
> ><br>
<br>
<br>
-- <br>
Bo Peng <<a href="mailto:pengbo@sraoss.co.jp" target="_blank">pengbo@sraoss.co.jp</a>><br>
SRA OSS, Inc. Japan<br>
<a href="http://www.sraoss.co.jp/" rel="noreferrer" target="_blank">http://www.sraoss.co.jp/</a><br>
</blockquote></div></div>