OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

参考文档:

1、Install-guide:https://docs.openstack.org/install-guide/

2、OpenStack High Availability Guide:https://docs.openstack.org/ha-guide/index.html

一、Pacemaker cluster stack集群

Openstack官网使用开源的pacemaker cluster stack做为集群高可用资源管理软件。
详细介绍:https://docs.openstack.org/ha-guide/controller-ha-pacemaker.html

1. 安装pacemaker

# 在全部控制节点安装相关服务,以controller1节点为例;
# pacemaker:资源管理器(CRM),负责启动与停止服务,位于 HA 集群架构中资源管理、资源代理层
# corosync:消息层组件(Messaging Layer),管理成员关系、消息与仲裁,为高可用环境中提供通讯服务,位于高可用集群架构的底层,为各节点(node)之间提供心跳信息;
# resource-agents:资源代理,在节点上接收CRM的调度,对某一资源进行管理的工具,管理工具通常为脚本;
# pcs:命令行工具集;
# fence-agents:fencing 在一个节点不稳定或无答复时将其关闭,使其不会损坏集群的其它资源,其主要作用是消除脑裂
[root@DT_Node-172_17_7_1 ~]# yum install pacemaker pcs corosync fence-agents resource-agents -y 

2. 构建集群

a、启动pcs服务,在全部控制节点执行,以controller1节点为例

[root@DT_Node-172_17_7_1 ~]# systemctl enable pcsd
[root@DT_Node-172_17_7_1 ~]# systemctl start pcsd

b、修改集群管理员hacluster(默认生成)密码,在全部控制节点执行,以controller1节点为例

[root@DT_Node-172_17_7_1 ~]# echo MThkMmRiOWQ4MTAzNzZjMGQ1 | passwd --stdin hacluster              
更改用户 hacluster 的密码 。
passwd:所有的身份验证令牌已经成功更新。
[root@DT_Node-172_17_7_1 ~]# 

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

c、添加iptables规则,需要所有controller节点操作

-A INPUT -s 172.17.0.0/21                 -p tcp -m tcp -m state --state NEW -m multiport --dports 2224 -m comment --comment "PCS_WEB_Port" -j ACCEPT
-A INPUT -s 172.17.0.0/21                 -p udp -m udp -m state --state NEW -m multiport --dports 5404:5405 -m comment --comment "PCS_Corosync_Port" -j ACCEPT
[root@DT_Node-172_17_7_1 ~]# iptables -nvxL --lin | grep PCS       
17          0        0 ACCEPT     tcp  --  *      *       172.17.0.0/21        0.0.0.0/0            tcp state NEW multiport dports 2224 /* PCS_WEB_Port */
18          0        0 ACCEPT     udp  --  *      *       172.17.0.0/21        0.0.0.0/0            udp state NEW multiport dports 5404:5405 /* PCS_Corosync_Port */
[root@DT_Node-172_17_7_1 ~]# 

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

d、认证配置在任意节点操作,以controller1节点为例

# 节点认证,组建集群,需要采用上一步设置的password
[root@controller01 ~]# pcs cluster auth controller1 controller2 controller3 -u hacluster -p MThkMmRiOWQ4MTAzNzZjMGQ1 --force

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

e、创建并命名集群,在任意节点操作,以controller1节点为例;

# 生成配置文件:/etc/corosync/corosync.conf
[root@DT_Node-172_17_7_1 ~]# pcs cluster setup --force --name openstack-cluster-01 controller1 controller2 controller3

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

3. 启动

a、启动集群,以controller1节点为例 (任意controller节点操作)

[root@DT_Node-172_17_7_1 ~]# pcs cluster start --all
controller3: Starting Cluster...
controller1: Starting Cluster...
controller2: Starting Cluster...
[root@DT_Node-172_17_7_1 ~]# 

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

b、设置集群开机启动

[root@DT_Node-172_17_7_1 ~]# pcs cluster enable --all
controller1: Cluster Enabled
controller2: Cluster Enabled
controller3: Cluster Enabled
[root@DT_Node-172_17_7_1 ~]# 

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

c、查看集群状态,也可使用” crm_mon -1”命令;

# “DC”:Designated Controller;
# 通过”cibadmin --query --scope nodes”可查看节点配置
[root@DT_Node-172_17_7_1 ~]# pcs status cluster

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

d、查看corosync状态;

# “corosync”表示一种底层状态等信息的同步方式
[root@DT_Node-172_17_7_1 ~]# pcs status corosync

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

e、查看节点;

# 或:corosync-cmapctl runtime.totem.pg.mrp.srp.members
[root@controller01 ~]# corosync-cmapctl | grep members

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

f、查看集群资源

[root@DT_Node-172_17_7_1 ~]# pcs resource 

或通过web访问任意控制节点:https://172.17.7.1:2224, 账号/密码(即构建集群时生成的密码):hacluster/MThkMmRiOWQ4MTAzNzZjMGQ1

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

4. 设置属性 (任意controller节点操作)

# 在任意控制节点设置属性即可,以controller1节点为例;
# 设置合适的输入处理历史记录及策略引擎生成的错误与警告,在troulbshoot时有用
[root@DT_Node-172_17_7_1 ~]# pcs property set pe-warn-series-max=1000 pe-input-series-max=1000 pe-error-series-max=1000

# pacemaker基于时间驱动的方式进行状态处理,"cluster-recheck-interval"默认定义某些pacemaker操作发生的事件间隔为15min,建议设置为5min或3min
[root@DT_Node-172_17_7_1 ~]# pcs property set cluster-recheck-interval=5

# corosync默认启用stonith,但stonith机制(通过ipmi或ssh关闭节点)并没有配置相应的stonith设备(通过“crm_verify -L -V”验证配置是否正确,没有输出即正确),此时pacemaker将拒绝启动任何资源;
# 在生产环境可根据情况灵活调整,验证环境下可关闭
[root@DT_Node-172_17_7_1 ~]# pcs property set stonith-enabled=false

# 默认当有半数以上节点在线时,集群认为自己拥有法定人数,是“合法”的,满足公式:total_nodes < 2 * active_nodes;
# 以3个节点的集群计算,当故障2个节点时,集群状态不满足上述公式,此时集群即非法;当集群只有2个节点时,故障1个节点集群即非法,所谓的”双节点集群”就没有意义;
# 在实际生产环境中,做2节点集群,无法仲裁时,可选择忽略;做3节点集群,可根据对集群节点的高可用阀值灵活设置
[root@DT_Node-172_17_7_1 ~]# pcs property set no-quorum-policy=ignore

# v2的heartbeat为了支持多节点集群,提供了一种积分策略来控制各个资源在集群中各节点之间的切换策略;通过计算出各节点的的总分数,得分最高者将成为active状态来管理某个(或某组)资源;
# 默认每一个资源的初始分数(取全局参数default-resource-stickiness,通过"pcs property list --all"查看)是0,同时每一个资源在每次失败之后减掉的分数(取全局参数default-resource-failure-stickiness)也是0,此时一个资源不论失败多少次,heartbeat都只是执行restart操作,不会进行节点切换;
# 如果针对某一个资源设置初始分数”resource-stickiness“或"resource-failure-stickiness",则取单独设置的资源分数;
# 一般来说,resource-stickiness的值都是正数,resource-failure-stickiness的值都是负数;有一个特殊值是正无穷大(INFINITY)和负无穷大(-INFINITY),即"永远不切换"与"只要失败必须切换",是用来满足极端规则的简单配置项;
# 如果节点的分数为负,该节点在任何情况下都不会接管资源(冷备节点);如果某节点的分数大于当前运行该资源的节点的分数,heartbeat会做出切换动作,现在运行该资源的节点将释 放资源,分数高出的节点将接管该资源

# pcs property list 只可查看修改后的属性值,参数”--all”可查看含默认值的全部属性值;
# 也可查看/var/lib/pacemaker/cib/cib.xml文件,或”pcs cluster cib”,或“cibadmin --query --scope crm_config”查看属性设置,” cibadmin --query --scope resources”查看资源配置
[root@DT_Node-172_17_7_1 ~]# pcs property list
Cluster Properties:
 cluster-infrastructure: corosync
 cluster-name: openstack-cluster-01
 cluster-recheck-interval: 5
 dc-version: 1.1.18-11.el7_5.3-2b07d5c5a9
 have-watchdog: false
 no-quorum-policy: ignore
 pe-error-series-max: 1000
 pe-input-series-max: 1000
 pe-warn-series-max: 1000
 stonith-enabled: false
[root@DT_Node-172_17_7_1 ~]# 

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

5. 配置vip (任意controller节点操作)

# 在任意控制节点设置vip(resource_id属性)即可,命名即为“vip”;
# ocf(standard属性):资源代理(resource agent)的一种,另有systemd,lsb,service等;
# heartbeat:资源脚本的提供者(provider属性),ocf规范允许多个供应商提供同一资源代理,大多数ocf规范提供的资源代理都使用heartbeat作为provider;
# IPaddr2:资源代理的名称(type属性),IPaddr2便是资源的type;
# 通过定义资源属性(standard:provider:type),定位”vip”资源对应的ra脚本位置;
# centos系统中,符合ocf规范的ra脚本位于/usr/lib/ocf/resource.d/目录,目录下存放了全部的provider,每个provider目录下有多个type;
# op:表示Operations
[root@DT_Node-172_17_7_1 ~]# pcs resource create vip ocf:heartbeat:IPaddr2 ip=172.17.7.100 cidr_netmask=21 nic=eth0 op monitor interval=30s

# 查看集群资源
[root@DT_Node-172_17_7_1 ~]# pcs resource

# 通过”pcs resouce”查询,vip资源在controller01节点;
# 通过”ip a show”可查看vip
[root@controller01 ~]# ip a show eth0

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

6. High availability management

通过web访问任意控制节点:https://172.17.7.1:2224
账号/密码(即构建集群时生成的密码):hacluster/MThkMmRiOWQ4MTAzNzZjMGQ1

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

虽然以cli的方式设置了集群,但web界面默认并不显示,手动添加集群;实际操作只需要添加已组建集群的任意节点即可,如下:
OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

# 如果api区分admin/internal/public接口,对客户端只开放public接口,通常设置两个vip,如命名为:vip_management与vip_public;
# 建议是将vip_management与vip_public约束在1个节点
# [root@DT_Node-172_17_7_1 ~]# pcs constraint colocation add vip_management with vip_public

二、Haproxy

1. 安装haproxy (所有controller节点操作)

[root@DT_Node-172_17_7_1 ~]# yum install haproxy -y

2. 配置haproxy.cfg (所有controller节点操作)

# 在全部控制节点配置haproxy.cfg,以controller1节点为例;
# haproxy依靠rsyslog输出日志,是否输出日志根据实际情况设定;
# 备份原haproxy.cfg文件
[root@controller01 ~]# cp /etc/haproxy/haproxy.cfg /etc/haproxy/haproxy.cfg.bak

# 集群的haproxy文件,涉及服务较多,这里针对涉及到的openstack服务,一次性设置完成,如下:
[root@DT_Node-172_17_7_1 ~]# cat /etc/haproxy/haproxy.cfg
global
  log 127.0.0.1 local0
  log 127.0.0.1 local1 notice
  chroot  /var/lib/haproxy
  daemon
  group  haproxy
  user  haproxy
  maxconn  4000
  pidfile  /var/run/haproxy.pid

defaults
  log  global
  maxconn  4000
  option  redispatch
  retries  3
  timeout  http-request 10s
  timeout  queue 1m
  timeout  connect 10s
  timeout  client 1m
  timeout  server 1m
  timeout  check 10s

# haproxy监控页
listen stats
  bind 0.0.0.0:1080
  log 127.0.0.1 local0 err
  maxconn 10      #最大连接数  
  mode http
  stats enable
  stats uri /
  stats realm OpenStack\ Haproxy
  stats auth admin:admin
  stats  refresh 30s
  stats  show-node
  stats  show-legends
  stats  hide-version
  stats admin if TRUE      #设置手工启动/禁用

# mariadb服务;
# 设置controller1节点为master,controller2/3节点为backup,一主多备的架构可规避数据不一致性;
listen galera_cluster
  bind 172.17.7.100:3306
  balance  source
  mode    tcp
  option httpchk
  server controller1 172.17.7.1:3306 check port 9200 inter 5000 fastinter 2000 rise 2 fall 2
  server controller2 172.17.7.2:3306 backup check port 9200 inter 5000 fastinter 2000 rise 2 fall 2
  server controller3 172.17.7.3:3306 backup check port 9200 inter 5000 fastinter 2000 rise 2 fall 2

# 为rabbirmq提供ha集群访问端口,供openstack各服务访问;
# 如果openstack各服务直接连接rabbitmq集群,这里可不设置rabbitmq的负载均衡
 listen rabbitmq_cluster
   bind 172.17.7.100:5673
   mode tcp
   option tcpka
   balance roundrobin
   timeout client  3h
   timeout server  3h
   option  clitcpka
   server controller1 172.17.7.1:5672 check inter 10s rise 2 fall 5
   server controller2 172.17.7.2:5672 check inter 10s rise 2 fall 5
   server controller3 172.17.7.3:5672 check inter 10s rise 2 fall 5

3. 配置内核参数 (所有controller节点操作)
# 全部控制节点修改内核参数,以controller1节点为例;
# net.ipv4.ip_nonlocal_bind:是否允许no-local ip绑定,关系到haproxy实例与vip能否绑定并切换;
# net.ipv4.ip_forward:是否允许转发
[root@DT_Node-172_17_7_1 ~]# echo "net.ipv4.ip_nonlocal_bind = 1" >>/etc/sysctl.conf
[root@DT_Node-172_17_7_1 ~]# echo "net.ipv4.ip_forward = 1" >>/etc/sysctl.conf
[root@DT_Node-172_17_7_1 ~]# echo "net.ipv4.ip_nonlocal_bind = 1" >>/etc/sysctl.conf   #允许没VIP时启动
[root@DT_Node-172_17_7_1 ~]# sysctl -p   

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

4.配置HAproxy日志

[root@DT_Node-172_17_7_1 ~]# echo '
$ModLoad imudp
$UDPServerRun 514
$template Haproxy,"%rawmsg% \n"
local0.=info -/var/log/haproxy.log;Haproxy
local0.notice -/var/log/haproxy-status.log;Haproxy
'>/etc/rsyslog.d/haproxy.conf
[root@DT_Node-172_17_7_1 ~]# systemctl restart rsyslog.service
[root@DT_Node-172_17_7_1 ~]# systemctl status rsyslog.service

5. 启动 (所有controller节点操作)

# 开机启动是否设置可自行选择,利用pacemaker设置haproxy相关资源后,pacemaker可控制各节点haproxy服务是否启动
[root@DT_Node-172_17_7_1 ~]# systemctl enable haproxy    
[root@DT_Node-172_17_7_1 ~]# systemctl start haproxy 
[root@DT_Node-172_17_7_1 ~]# systemctl status haproxy 

访问http://172.17.7.100 账号密码都是admin
OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

6. 设置pcs资源 (任意controller节点操作)

a、添加资源lb-haproxy-clone

[root@DT_Node-172_17_7_1 ~]# pcs resource create lb-haproxy systemd:haproxy --clone 
[root@DT_Node-172_17_7_1 ~]# pcs resource

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

b、设置资源启动顺序,先vip再lb-haproxy-clone;

# 通过“cibadmin --query --scope constraints”可查看资源约束配置
[root@DT_Node-172_17_7_1 ~]# pcs constraint order start vip then lb-haproxy-clone kind=Optional

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

c、官方建议设置vip运行在haproxy active的节点,通过绑定lb-haproxy-clone与vip服务,将两种资源约束在1个节点;

# 约束后,从资源角度看,其余暂时没有获得vip的节点的haproxy会被pcs关闭
[root@DT_Node-172_17_7_1 ~]# pcs constraint colocation add lb-haproxy-clone with vip
[root@DT_Node-172_17_7_1 ~]# pcs resource

OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)
通过high availability management查看资源相关的设置,如下:
OpenStack-Queens详细安装部署(二)高可用配置 (pacemaker&haproxy)

lookback
  • 本文由 发表于 2018年9月7日14:58:31
  • 除非特殊声明,本站文章均为原创,转载请务必保留本文链接
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: