首页
解决方案
数据库专业技术服务全栈式PostgreSQL解决方案Oracle分布式存储化数据库云PolarDB一体化解决方案
产品
CLup:PostgreSQL高可用集群平台 CMiner: PostgreSQL中的CDC CData高性能数据库云一体机 CBackup数据库备份恢复云平台 CPDA高性能双子星数据库机 CSYun超融合虚拟机产品 ZQPool数据库连接池 ConshGuard数据保护产品 APCC: Greenplum管理平台
文档
文章
客户及伙伴
中启开源
关于我们
公司简介 联系我们
中启开源
修改标题
往前插入
往后插入
删除

在iSCSI共享盘上使用CLup创建和管理PolarDB

1. 基础知识

1.1 创建PolarDB的要求

安装要求

我们使用4台机器搭建此环境。

2. 安装配置

本次需要的机器列表如下:

主机名 IP 作用 数据目录
polardb01 192.168.166.115 部署clup管理端,部署iSCSI服务端,运行PolarDB /data/polardata
polardb02 192.168.166.116 clup-agent 部署clup-agent,部署iSCSI客户端,运行PolarDB /data/polardata
polardb03 192.168.166.117 clup-agent 部署clup-agent,部署iSCSI客户端,运行PolarDB /data/polardata
polardb04 192.168.166.118 clup-agent 部署clup-agent,部署iSCSI客户端,运行PolarDB /data/polardata

其中机器192.168.166.115上有一块硬盘30GB硬盘做为iSCSI盘共享给其它机器使用。

2.1 安装和启动iSCSI服务端程序

在192.168.166.115机器上做下面的操作:

命令:

  1. yum install scsi-target-utils.x86_64

创建配置文件/etc/tgt/conf.d/polardisk.conf,内容如下:

  1. <target iqn.2008-09.polardb.com:target1>
  2. backing-store /dev/disk/by-path/pci-0000:00:09.0-scsi-0:0:0:0
  3. </target>

上面指定的共享盘/dev/disk/by-path/pci-0000:00:09.0-scsi-0:0:0:0实际是一个链接,执行我们这台上一块给polarDB使用的硬盘/dev/sdb。使用链接文件的好处是这个链接不管机器怎么重启,基本都会保持不变,而/dev/sdb可能不是稳定的,重启后可能变成/dev/sdc,所以我们要配置一个不变的路径。

上面的iqn.2008-09.polardb.com:target1是iSCSI的target名称,后面在iSCSI的客户端机器上挂盘时会用到这个target名称。

启动iSCSI服务端的服务:

  1. systemctl enable tgtd
  2. systemctl start tgtd

2.2 安装和启动iSCSI客户端程序

在192.168.166.116、192.168.166.117、192.168.166.118机器上做下面的操作:

安装以下包:

  1. yum install iscsi-initiator-utils

启动iSCSI客户端服务:

  1. systemctl start iscsi

挂载iSCSI共享盘:

用下面命令查看iSCSI服务端提供了哪些target名称(target名称你可以认为是一个服务名):

  1. iscsiadm -m discovery -t st -p 192.168.166.115:3260

实际运行的效果如下:

  1. [root@polardb02 ~]# iscsiadm -m discovery -t st -p 192.168.166.115:3260
  2. 192.168.166.115:3260,1 iqn.2008-09.polardb.com:target1

如果没有出来上面的效果,通常是前面的iSCSI的服务端的配置不正确,请检查前面的操作后再试。

运行下面的命令把iSCSI共享盘给挂过来:

  1. iscsiadm -m node -T iqn.2008-09.polardb.com:target1 -l

上面的名称执行成功后,用命令iscsiadm -m session -P 3检查挂载过来的盘:

  1. [root@polardb02 ~]# iscsiadm -m session -P 3
  2. iSCSI Transport Class version 2.0-870
  3. version 6.2.0.874-22
  4. Target: iqn.2008-09.polardb.com:target1 (non-flash)
  5. Current Portal: 192.168.166.115:3260,1
  6. Persistent Portal: 192.168.166.115:3260,1
  7. **********
  8. Interface:
  9. **********
  10. Iface Name: default
  11. Iface Transport: tcp
  12. Iface Initiatorname: iqn.1994-05.com.redhat:4598c6675bbb
  13. Iface IPaddress: 192.168.166.116
  14. Iface HWaddress: <empty>
  15. Iface Netdev: <empty>
  16. SID: 1
  17. iSCSI Connection State: LOGGED IN
  18. iSCSI Session State: LOGGED_IN
  19. Internal iscsid Session State: NO CHANGE
  20. *********
  21. Timeouts:
  22. *********
  23. Recovery Timeout: 120
  24. Target Reset Timeout: 30
  25. LUN Reset Timeout: 30
  26. Abort Timeout: 15
  27. *****
  28. CHAP:
  29. *****
  30. username: <empty>
  31. password: ********
  32. username_in: <empty>
  33. password_in: ********
  34. ************************
  35. Negotiated iSCSI params:
  36. ************************
  37. HeaderDigest: None
  38. DataDigest: None
  39. MaxRecvDataSegmentLength: 262144
  40. MaxXmitDataSegmentLength: 8192
  41. FirstBurstLength: 65536
  42. MaxBurstLength: 262144
  43. ImmediateData: Yes
  44. InitialR2T: Yes
  45. MaxOutstandingR2T: 1
  46. ************************
  47. Attached SCSI devices:
  48. ************************
  49. Host Number: 8 State: running
  50. scsi8 Channel 00 Id 0 Lun: 0
  51. scsi8 Channel 00 Id 0 Lun: 1
  52. Attached scsi disk sdb State: running

最后一行中Attached scsi disk sdb State: running表明挂载过来的盘是/dev/sdb,可以用lsblk看以下这个iSCSI的共享盘:

  1. [root@polardb02 ~]# lsblk
  2. NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
  3. sda 8:0 0 20G 0 disk
  4. ├─sda1 8:1 0 512M 0 part [SWAP]
  5. └─sda2 8:2 0 19.5G 0 part /
  6. sdb 8:16 0 30G 0 disk
  7. sr0 11:0 1 1024M 0 rom
  8. sr1 11:1 1 1024M 0 rom
  9. sr2 11:2 1 1024M 0 rom
  10. sr3 11:3 1 1024M 0 rom
  11. sr4 11:4 1 1024M 0 rom

通常通过iSCSI挂载过来的共享盘与本地盘看起来没有什么区别。

2.3 配置udev规则让共享盘的盘符为/dev/nvme1n1

192.168.166.115机器上,配置文件/etc/udev/rules.d/pfs_disk.rules:

  1. ACTION=="add|change", SUBSYSTEMS=="block", ENV{ID_PATH}=="pci-0000:00:09.0-scsi-0:0:0:0" SYMLINK+="nvme1n1"

上面的配置解释:

  1. [root@polardb01 rules.d]# ls -l /dev/disk/by-path
  2. total 0
  3. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:01.1-ata-1.0 -> ../../sda
  4. lrwxrwxrwx 1 root root 10 Mar 16 2023 pci-0000:00:01.1-ata-1.0-part1 -> ../../sda1
  5. lrwxrwxrwx 1 root root 10 Mar 16 2023 pci-0000:00:01.1-ata-1.0-part2 -> ../../sda2
  6. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:01.1-ata-1.1 -> ../../sr0
  7. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-1.0 -> ../../sr1
  8. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-2.0 -> ../../sr2
  9. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-3.0 -> ../../sr3
  10. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-4.0 -> ../../sr4
  11. lrwxrwxrwx 1 root root 9 Mar 15 22:33 pci-0000:00:09.0-scsi-0:0:0:0 -> ../../sdb

从上面的可看出/dev/sdb的ID_PATH为pci-0000:00:09.0-scsi-0:0:0:0

192.168.166.116~118机器上,配置文件/etc/udev/rules.d/pfs_disk.rules,内容如下:

  1. ACTION=="add|change", SUBSYSTEMS=="block", ENV{ID_PATH}=="ip-192.168.166.115:3260-iscsi-iqn.2008-09.polardb.com:target1-lun-1" SYMLINK+="nvme1n1"

其中从iSCSI挂过来的盘/dev/sdb的ID_PATH也是可以从/dev/disk/by-path获得:

  1. [root@polardb02 rules.d]# ls -l /dev/disk/by-path
  2. total 0
  3. lrwxrwxrwx 1 root root 9 Mar 15 22:43 ip-192.168.166.115:3260-iscsi-iqn.2008-09.polardb.com:target1-lun-1 -> ../../sdb
  4. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:01.1-ata-1.0 -> ../../sda
  5. lrwxrwxrwx 1 root root 10 Mar 16 2023 pci-0000:00:01.1-ata-1.0-part1 -> ../../sda1
  6. lrwxrwxrwx 1 root root 10 Mar 16 2023 pci-0000:00:01.1-ata-1.0-part2 -> ../../sda2
  7. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:01.1-ata-1.1 -> ../../sr0
  8. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-1.0 -> ../../sr1
  9. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-2.0 -> ../../sr2
  10. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-3.0 -> ../../sr3
  11. lrwxrwxrwx 1 root root 9 Mar 16 2023 pci-0000:00:08.0-ata-4.0 -> ../../sr4

udev规则配置好后,我们需要用udevadm test /block/sdb命令触发一下,让其生效:

  1. [root@polardb02 ~]# udevadm test /block/sdb
  2. calling: test
  3. ...
  4. ...
  5. === trie on-disk ===
  6. tool version: 219
  7. 'scsi_id --export --whitelisted -d /dev/sdb'(out) 'ID_VENDOR=IET'
  8. 'scsi_id --export --whitelisted -d /dev/sdb'(out) 'ID_VENDOR_ENC=IET\x20\x20\x20\x20\x20'
  9. 'scsi_id --export --whitelisted -d /dev/sdb'(out) 'ID_MODEL=VIRTUAL-DISK'
  10. ...
  11. ...
  12. ...
  13. ACTION=add
  14. DEVLINKS=/dev/disk/by-id/scsi-360000000000000000e00000000010001 /dev/disk/by-id/wwn-0x60000000000000000e00000000010001 /dev/disk/by-path/ip-192.168.166.115:3260-iscsi-iqn.2008-09.polardb.com:target1-lun-1 /dev/nvme1n1
  15. DEVNAME=/dev/sdb
  16. DEVPATH=/devices/platform/host8/session1/target8:0:0/8:0:0:1/block/sdb
  17. DEVTYPE=disk
  18. ID_BUS=scsi
  19. ID_FS_TYPE=
  20. ID_MODEL=VIRTUAL-DISK
  21. ID_MODEL_ENC=VIRTUAL-DISK
  22. ID_PATH=ip-192.168.166.115:3260-iscsi-iqn.2008-09.polardb.com:target1-lun-1
  23. ID_PATH_TAG=ip-10_197_166_115_3260-iscsi-iqn_2008-09_polardb_com_target1-lun-1
  24. ...
  25. ...
  26. SUBSYSTEM=block
  27. TAGS=:systemd:
  28. USEC_INITIALIZED=661045
  29. Unload module index
  30. Unloaded link configuration context.

执行完后在/dev/目录下就生成了nvme1n1的链接。

2.4 安装clup-server模块

在192.168.166.115机器上:

安装csumdb模块,下载csumdb安装包:

  1. wget https://gitee.com/csudata/clup-community/releases/download/5.0.2/csumdb1.0.0.el7.x86_64.bin

运行:bash csumdb1.0.0.el7.x86_64.bin:

  1. [root@polardb-01 ~]# bash csumdb1.0.0.el7.x86_64.bin
  2. ==== Installation is starting ...
  3. ==== Installation is complete.

安装clup-server模块,下载clup-server安装包:

  1. wget https://gitee.com/csudata/clup-community/releases/download/4.4.6/clup4.4.6.el7.x86_64.bin

运行:bash clup4.4.6.el7.x86_64.bin:

  1. [root@polardb-01 ~]# bash clup4.4.6.el7.x86_64.bin
  2. ==== Installation is starting ...
  3. ==== Your ip is 192.168.166.115/20
  4. ==== register systemd service ...
  5. already register systemd service!
  6. ==== register systemd service ok.
  7. ==== Installation is complete.

然后我们在浏览器输入 http://192.168.166.115:8090 ,打开WEB界面:
WEB界面

默认的用户名为:admin

默认密码为:cstech

输入后就可以登陆CLup的管理界面了。WEB界面中可以管理的数据库当前都是空的,还需要在数据库主机中安装clup-agent后,才能进一步的操作。

2.5 安装clup-agent

在需要部署数据库的主机上安装clup-agent。在本示例是在polardb-01、polardb-02、polardb-03机器上安装clup-agent。

下载clup-agent安装程序:

  1. wget https://gitee.com/csudata/clup-community/releases/download/4.4.6/clup-agent4.4.6.el7.x86_64.bin

运行:bash clup-agent4.4.6.el7.x86_64.bin:

  1. [root@polardb-01 ~]# bash clup-agent4.4.6.el7.x86_64.bin
  2. ==== Installation is starting ...
  3. ==== Your ip is 192.168.166.115/20
  4. Enter Clup Server IP Addr:

输入clup服务端的IP地址:192.168.166.115 然后回车继续:

  1. Enter Clup Server IP Addr: 192.168.166.115
  2. Clup Server ip is 192.168.166.115!
  3. ==== register systemd service ...
  4. 2023-03-08 10:12:45,17 INFO clup-agent v4.4.6 Copyright (c) 2018-2022 CSUDATA.COM All rights reserved.
  5. already register systemd service!
  6. ==== register systemd service ok.
  7. ==== Installation is complete.

2.6 安装PolarDB程序

在polardb-01和polardb-02和polardb-03机器上安装PolarDB程序需要的依赖包:

  1. yum install libaio.x86_64 libaio-devel.x86_64

下载中启乘数科技编译好的PolarDB:

  1. wget https://gitee.com/csudata/zqpolardb/releases/download/11.9.2/polardb-11.9.2.20230314.el7.x86_64.tar.xz

解压安装:

  1. tar xf polardb-11.9.2.20230314.el7.x86_64.tar.xz
  2. cd polardb_20230314
  3. ./install.sh

实际的安装过程:

  1. [root@polardb-01 polardb_20230314]# ./install.sh
  2. 装依赖libssllibcrypto
  3. 安装pfs
  4. install pfsd success!
  5. 安装polardb
  6. 执行结束

我们这个安装包安装的PolarDB数据库软件的目录在/usr/polardb_pfs目录下。需要把/usr/polardb_pfs/bin目录配置到Clup中。

到CLup的WEB管理界面中,到菜单:系统管理->clup参数设置界面中,找到参数pg_bin_path_string,点击修改:
修改

在上面的界面中,原有的配置中添加,/usr/polardb_pfs/bin,点保存即可。

2.7 初始化PolarDB共享盘上的文件系统

进入到polardb-01、polardb-02、polardb-03任意一台机器中执行下面的操作即可。在本例中我们进入polardb-01机器中,执行lsblk获得共享磁盘的盘符名称:

  1. [root@polardb-01 ~]# lsblk
  2. NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
  3. nvme0n1 259:1 0 40G 0 disk
  4. └─nvme0n1p1 259:2 0 40G 0 part /
  5. nvme1n1 259:0 0 40G 0 disk

从上面的可以看出,总共有两块名称以nvme开头的盘,而nvme0n1是操作系统盘的盘符,所以我们的共享盘就是nvme1n1。

执行:

  1. pfs -C disk mkfs nvme1n1

实际执行上面的命令的情况如下:

  1. [root@polardb-01 ~]# pfs -C disk mkfs nvme1n1
  2. pfs tool cmd record:mkfs nvme1n1
  3. [PFS_LOG] Oct 13 17:58:43.952074 INF [1491] pfs build version:libpfs_version_("pfsd-build-desc-fb5114f-Thu Aug 18 14:46:30 CST 2022")
  4. [PFS_LOG] Oct 13 17:58:43.952146 INF [1491] pid: 1125, caller: -bash
  5. [PFS_LOG] Oct 13 17:58:43.952183 INF [1491] pid: 1102, caller: sshd: root@pts/0
  6. [PFS_LOG] Oct 13 17:58:43.952205 INF [1491] pid: 1046, caller: /usr/sbin/sshd -D
  7. [PFS_LOG] Oct 13 17:58:43.952229 INF [1491] open device cluster disk, devname nvme1n1, flags 0x13
  8. [PFS_LOG] Oct 13 17:58:43.952242 INF [1491] disk dev path: /dev/nvme1n1
  9. [PFS_LOG] Oct 13 17:58:43.952245 INF [1491] open local disk: open(/dev/nvme1n1, 0x4002)
  10. [PFS_LOG] Oct 13 17:58:43.952254 INF [1491] ioctl status 0
  11. [PFS_LOG] Oct 13 17:58:43.952257 INF [1491] pfs_diskdev_info get pi_pbdno 0, pi_rwtype 1, pi_unitsize 4194304, pi_chunksize 10737418240, pi_disksize 42949672960
  12. [PFS_LOG] Oct 13 17:58:43.952260 INF [1491] pfs_diskdev_info waste size: 0
  13. [PFS_LOG] Oct 13 17:58:43.952262 INF [1491] disk size 0xa00000000, chunk size 0x280000000
  14. [PFS_LOG] Oct 13 17:58:43.952484 ERR [1491] chunk 0 pfs magic mismatch 0 vs 0x5046534348
  15. [PFS_LOG] Oct 13 17:58:43.952489 INF [1491] mkfs PBD nvme1n1 isn't formatted
  16. Init chunk 0
  17. metaset 0/1: sectbda 0x1000, npage 80, objsize 128, nobj 2560, oid range [ 0, a00)
  18. metaset 0/2: sectbda 0x51000, npage 64, objsize 128, nobj 2048, oid range [ 0, 800)
  19. metaset 0/3: sectbda 0x91000, npage 64, objsize 128, nobj 2048, oid range [ 0, 800)
  20. Init chunk 1
  21. metaset 1/1: sectbda 0x280001000, npage 80, objsize 128, nobj 2560, oid range [ 1000, 1a00)
  22. metaset 1/2: sectbda 0x280051000, npage 64, objsize 128, nobj 2048, oid range [ 800, 1000)
  23. metaset 1/3: sectbda 0x280091000, npage 64, objsize 128, nobj 2048, oid range [ 800, 1000)
  24. Init chunk 2
  25. metaset 2/1: sectbda 0x500001000, npage 80, objsize 128, nobj 2560, oid range [ 2000, 2a00)
  26. metaset 2/2: sectbda 0x500051000, npage 64, objsize 128, nobj 2048, oid range [ 1000, 1800)
  27. metaset 2/3: sectbda 0x500091000, npage 64, objsize 128, nobj 2048, oid range [ 1000, 1800)
  28. Init chunk 3
  29. metaset 3/1: sectbda 0x780001000, npage 80, objsize 128, nobj 2560, oid range [ 3000, 3a00)
  30. metaset 3/2: sectbda 0x780051000, npage 64, objsize 128, nobj 2048, oid range [ 1800, 2000)
  31. metaset 3/3: sectbda 0x780091000, npage 64, objsize 128, nobj 2048, oid range [ 1800, 2000)
  32. Inited filesystem(42949672960 bytes), 4 chunks, 2560 blktags, 2048 direntries, 2048 inodes per chunk
  33. making paxos file
  34. init paxos lease
  35. making journal file
  36. pfs mkfs succeeds!

2.8 使用CLup创建PolarDB高可用集群

进入CLup的WEB管理界面中,在菜单中,点击“HA集群->集群定义”:
集群定义

在上面的界面中点“创建PolarDB共享存储集群”,出现创建PolarDB的集群界面:
集群界面

在上面的界面中选择polardb-01机器,操作系统用户名称我们填写postgres(其实也可以填写其它的名称),操作系统用户postgres的UID我们填写701(也可以填写其它值),选择PolarDB软件的安装路径为/usr/polardb_pfs/bin,数据目录我们填写/data/polardata(也可以填写其它的目录),防脑裂命令填写/bin/true,然后点添加按钮,即把polardb-01机器添加为PolarDB集群中的可读可写的节点(即主库),与此类似,我们再把polardb-02旧机器添加进来,polardb-02机器即做为PolarDB的只读节点,如下图所示:
只读节点

在上图中点添加按钮,即把polardb-02机器添加为PolarDB集群中的只读节点了,如下图所示:
只读节点2

在上图中,点下一步按钮,进入填写集群信息的界面,如下图:
下一步

在上面的界面中,我们输入了如下信息:

上面的pfs_disk_name我们填的是nvme1n1,这不是乱填的,这个名称是我们前面创建的阿里云Nvme盘的在虚拟机中的盘符,我们可以登陆到虚拟机种,允许lsblk命令获得这个盘符:

  1. [root@polardb01 ~]# lsblk
  2. NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
  3. nvme0n1 259:1 0 40G 0 disk
  4. └─nvme0n1p1 259:2 0 40G 0 part /
  5. nvme1n1 259:0 0 40G 0 disk

从上面的可以看出,总共有两块名称以nvme开头的盘,而nvme0n1是操作系统盘的盘符,所以我们的共享盘就是nvme1n1。

检测按钮,会自动检测主机上是否有nvme1n1的盘,如果没有会报错。如果之前没有用pfs -C disk mkfs nvme1n1格式化此盘,也会报错。如果没有错误,就进入了下一步:
格式化此盘

上面的配置中,保持默认,点下一步即可:
保持默认

上面的配置中,保持默认,点提交按钮就可以创建PolarDB高可用集群了:
保持默认

如果上面的信息中没有报错,PolarDB集群就创建成功了。

我们到CLup的数据库列表界面中,选中PolarDB集群中的主库:
主库

psql按钮,就在web界面用psql登陆的此主库:
psql登陆

在上面界面中我们输入select * from pg_stat_replication 检查流复制是否正常。

如果正常说明搭建的PolarDB高可用集群没有问题

到WEB界面中的HA管理界面中,点上线,让高可用集群进入正常的工作状态:
上线

集群上线后,但有虚拟机故障后,会自动切换。

到主库的机器192.168.166.115上运行命令ip a看虚拟VIP是否挂载过来了:

  1. [root@polardb-01 ~]# ip a
  2. 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
  3. link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
  4. inet 127.0.0.1/8 scope host lo
  5. valid_lft forever preferred_lft forever
  6. inet6 ::1/128 scope host
  7. valid_lft forever preferred_lft forever
  8. 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
  9. link/ether 00:16:3e:17:2d:7c brd ff:ff:ff:ff:ff:ff
  10. inet 172.16.195.157/20 brd 172.16.207.255 scope global dynamic eth0
  11. valid_lft 315348643sec preferred_lft 315348643sec
  12. inet 192.168.166.231/32 scope global eth0
  13. valid_lft forever preferred_lft forever
  14. inet6 fe80::216:3eff:fe17:2d7c/64 scope link
  15. valid_lft forever preferred_lft forever

可以看到虚拟IP地址192.168.166.231挂载到这台机器上了。

3. 使用测试

3.1 手工切换测试

当前主库是在polardb-01上,只读节点是在polardb-02上,我们可以把主库切换到polardb-02上,让polardb-01变成只读节点,方法如下:

在WEB管理界面中:HA集群->HA管理,选中要操作的集群,点详情
详情

进入集群的详情页中:
集群的详情页

点上面界面中的切换,弹出是否切换对话框:
切换

点确定后就把开始切换的动作:
开始切换

等切换完成,主库切换到polardb-02机器上了,我们到polardb-02机器上,可以看到虚拟IP也切换到此机器了:

  1. [root@polardb-02 polarAll]# ip a
  2. 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
  3. link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
  4. inet 127.0.0.1/8 scope host lo
  5. valid_lft forever preferred_lft forever
  6. inet6 ::1/128 scope host
  7. valid_lft forever preferred_lft forever
  8. 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
  9. link/ether 00:16:3e:0c:cc:8e brd ff:ff:ff:ff:ff:ff
  10. inet 192.168.166.115/20 brd 172.16.207.255 scope global dynamic eth0
  11. valid_lft 315347507sec preferred_lft 315347507sec
  12. inet 192.168.166.231/32 scope global eth0
  13. valid_lft forever preferred_lft forever
  14. inet6 fe80::216:3eff:fe0c:cc8e/64 scope link
  15. valid_lft forever preferred_lft forever
目录
img