写在最前面
本篇文章是我2021年6月发表在 KubeSphere 社区技术博客的修改版本,点击查看原文章。在近一年左右的时间里,不断有项目里遇到使用 Calico RR 的场景,根据具体落地的实践,针对之前文章里存在的一些问题进行了修正,主要问题是关于 leaf 交换机和 Calico RR 节点之间应建立 iBGP
连接关系,而不是之前文章提到的 eBGP
连接,如果采用 eBGP
连接将出现部分流量一定会绕路到 RR 节点的问题,事实上,Calico RR 应该只是作为同步路由的角色来使用。
概述
作为 Kubernetes 最长使用的一种网络插件,Calico 具有很强的扩展性,较优的资源利用和较少的依赖,相较于 Flannel 插件采用 Overlay 的网络,Calico 可以通过三层路由的方式采用性能更佳的 Underlay 网络,Calico 网络插件的转发效率是所有方案中最高的。
在使用 Calico 网络插件的实际生产环境当中,为了提高网络的性能和灵活性,需要将 Kubernetes 的工作节点和物理网络中的 leaf 交换机建立 bgp 邻居关系,同步 bgp 路由信息,可以将 pod 网络的路由发布到物理网络中。Calico 给出了三种类型的 BGP 互联方案,分别是 Full-mesh
、Route reflectors
和 Top of Rack (ToR)
。
- Full-mesh
全互联模式,启用了 BGP 之后,Calico 的默认行为是在每个节点彼此对等的情况下创建完整的内部 BGP(iBGP)连接,这使 Calico 可以在任何 L2 网络(无论是公有云还是私有云)上运行,或者说(如果配了 IPIP )可以在任何不禁止 IPIP 流量的网络上作为 overlay 运行。对于 vxlan overlay,Calico 不使用 BGP。
Full-mesh 模式对于 100 个以内的工作节点或更少节点的中小规模部署非常有用,但是在较大的规模上,Full-mesh 模式效率会降低,较大规模情况下,Calico 官方建议使用 Route reflectors。 - Route reflectors
如果想构建内部 BGP(iBGP)大规模集群,可以使用 BGP 路由反射器来减少每个节点上使用 BGP 对等体的数量。在此模型中,某些节点充当路由反射器,并配置为在它们之间建立完整的网格。然后,将其他节点配置为与这些路由反射器的子集(通常为冗余,通常为 2 个)进行对等,从而与全网格相比减少了 BGP 对等连接的总数。 - Top of Rack(ToR)
在本地部署中,可以将 Calico 配置为直接与物理网络基础结构对等。通常,这需要涉及到禁用 Calico 的默认 Full-mesh 行为,将所有 Calico 节点与 L3 ToR 路由器对等。
本篇文章重点会介绍如何在 BGP 网络环境下配置 Calico 路由反射器,本篇主要介绍将 kubernetes 工作节点作为路由反射器和物理交换机建立 BGP 连接。配置环境拓扑如下:
在本次环境中,分别有一台 spine 交换机和两台 server leaf 交换机来建立 eBGP
连接。所有 server leaf 交换机和交换机下的 node 节点都属于一个自治系统。Kubernetes 集群中每个 server leaf 下由两台工作节点作为 Calico RR(路由反射器),之所以用两台 node 节点作为路由反射器是考虑冗余性,所有 Calico RR 都跟自己上联的 server leaf 交换机建立 iBGP
连接。**Calico RR ** 和自己所属的 node 之间建立 iBGP
连接。
安装 calicoctl
Calico RR 所有配置操作都需要通过 calicoctl
工具来完成, calicoctl
允许从命令创建,读取,更新和删除 Calico 对象,所以我们首先需要在 Kubernetes 所有的工作节点上安装 calicoctl
工具。
1、采用二进制方式安装 calicoctl
工具。
2、登录到主机,打开终端提示符,然后导航到安装二进制文件位置,一般情况下 ** calicoctl** 安装到 /usr/local/bin/
。
3、使用以下命令下载 calicoctl 二进制文件,版本号选择自己 Calico 的版本。
$ curl -O -L https://github.com/projectcalico/calicoctl/releases/download/v3.20.0/calicoctl
4、将文件设置为可执行文件
$ chmod +x calicoctl
5、每次执行 calicoctl 之前需要设置环境变量。
$ export DATASTORE_TYPE=kubernetes
$ export KUBECONFIG=~/.kube/config
6、如果不希望每次执行 calicoctl 之前都需要设置环境变量,可以将环境变量信息写到永久写入到 /etc/calico/calicoctl.cfg
文件里,calicoctl.cfg
配置文件编辑如下:
apiVersion: projectcalico.org/v3
kind: CalicoAPIConfig
metadata:
spec:
datastoreType: "kubernetes"
kubeconfig: "/root/.kube/config"
7、命令使用:
[root@ndoe1 ~]# calicoctl -h
Usage:
calicoctl [options] <command> [<args>...]
create Create a resource by file, directory or stdin.
replace Replace a resource by file, directory or stdin.
apply Apply a resource by file, directory or stdin. This creates a resource
if it does not exist, and replaces a resource if it does exists.
patch Patch a pre-exisiting resource in place.
delete Delete a resource identified by file, directory, stdin or resource type and
name.
get Get a resource identified by file, directory, stdin or resource type and
name.
label Add or update labels of resources.
convert Convert config files between different API versions.
ipam IP address management.
node Calico node management.
version Display the version of this binary.
export Export the Calico datastore objects for migration
import Import the Calico datastore objects for migration
datastore Calico datastore management.
Options:
-h --help Show this screen.
-l --log-level=<level> Set the log level (one of panic, fatal, error,
warn, info, debug) [default: panic]
--context=<context> The name of the kubeconfig context to use.
--allow-version-mismatch Allow client and cluster versions mismatch.
Description:
The calicoctl command line tool is used to manage Calico network and security
policy, to view and manage endpoint configuration, and to manage a Calico
node instance.
See 'calicoctl <command> --help' to read about a specific subcommand.
更改 Calico 配置
查看现有配置:
[root@node1 ~]# kubectl get ippools
NAME AGE
default-ipv4-ippool 10d
[root@node1 ~]# kubectl get ippools default-ipv4-ippool -o yaml |grep ipipMode
ipipMode: Always
Always
:代表为 ip-ip 模式开启
改为:ipipMode: Never
如果有多个 ippool,则需要更改需要暴漏的 ippool 即可。
[root@node1 ~]# kubectl edit ippools default-ipv4-ippool
# Please edit the object below. Lines beginning with a '#' will be ignored,
# and an empty file will abort the edit. If an error occurs while saving this file will be
# reopened with the relevant failures.
#
apiVersion: crd.projectcalico.org/v1
kind: IPPool
metadata:
annotations:
projectcalico.org/metadata: '{"uid":"34747442-e39c-47d2-a19c-4829fece632e","creationTimestamp":"2022-05-11T13:10:07Z"}'
creationTimestamp: "2022-05-11T13:10:06Z"
generation: 1
name: default-ipv4-ippool
resourceVersion: "2675"
uid: e30ffaae-d7dd-4732-b86c-5b2ed20901c6
spec:
blockSize: 24
cidr: 10.233.64.0/18
ipipMode: Never
natOutgoing: true
nodeSelector: all()
vxlanMode: Never
[root@node1 ~]# kubectl get ippool -o yaml |grep ipipMode
ipipMode: Never
关闭 Full-Mesh 模式
Calico 默认是 Full-mesh 全互联模式,Calico 集群中的的节点之间都会建立连接,进行路由交换。但是随着集群规模的扩大,mesh 模式将形成一个巨大服务网格,连接数成倍增加。这时就需要使用 Route Reflector(路由器反射)模式解决这个问题。确定一个或多个 Calico 节点充当路由反射器,让其他节点从这个 RR 节点获取路由信息。
关闭 node-to-node BGP 网络,具体操作步骤如下:
1、创建 bgpconf.yaml
文件,添加 default BGP
配置,调整 nodeToNodeMeshEnabled
和 asNumber
:
[root@node1 ~]# vim bgpconf.yaml
apiVersion: projectcalico.org/v3
kind: BGPConfiguration
metadata:
name: default
spec:
logSeverityScreen: Info
nodeToNodeMeshEnabled: false
asNumber: 64512
2、直接应用一下,应用之后会马上禁用 Full-Mesh:
[root@node1 ~]# calicoctl apply -f bgpconf.yaml
Successfully applied 1 'BGPConfiguration' resource(s)
3、查看 BGP 网络配置情况,false
为关闭:
[root@node1 ~]# calicoctl get bgpconfig
NAME LOGSEVERITY MESHENABLED ASNUMBER
default Info false 65003
修改工作节点的 Calico 配置
通过 calicoctl get nodes --output=wide
可以获取各节点的 **ASN **号:
[root@node1 ~]# calicoctl get nodes --output=wide
NAME ASN IPV4 IPV6
node1 (65003) 192.168.10.11/24
node2 (65003) 192.168.10.12/24
node3 (65003) 192.168.10.13/24
node4 (65003) 192.168.11.11/24
node5 (65003) 192.168.11.12/24
node6 (65003) 192.168.11.13/24
可以看到获取的 ASN 号都是 65003
,这是因为如果不给每个节点指定 ASN 号,默认都是 65003
。我们可以按照拓扑图配置各个节点的 ASN 号,不同 leaf 交换机下的节点,ASN 号不一样,每个 leaf 交换机下的工作节点和 leaf 交换机组成一个独立自治系统。
通过如下命令,获取工作节点的 Calico 配置信息:
[root@node1 ~]# calicoctl get node node1 -o yaml > node1.yaml
每一个工作节点的 Calico 配置信息都要获取一些,输出为 yaml 文件, node1
为 Calico 节点的名称,可以通过 kubectl get nodes
命令获取。
按照如下格式进行修改:
apiVersion: projectcalico.org/v3
kind: Node
metadata:
annotations:
projectcalico.org/kube-labels: '{"beta.kubernetes.io/arch":"amd64","beta.kubernetes.io/os":"linux","kubernetes.io/arch":"amd64","kubernetes.io/hostname":"node1","kubernetes.io/os":"linux","node-role.kubernetes.io/control-plane":"","node-role.kubernetes.io/master":"","node.kubernetes.io/exclude-from-external-load-balancers":""}'
creationTimestamp: null
labels:
beta.kubernetes.io/arch: amd64
beta.kubernetes.io/os: linux
kubernetes.io/arch: amd64
kubernetes.io/hostname: node1
kubernetes.io/os: linux
node-role.kubernetes.io/control-plane: ""
node-role.kubernetes.io/master: ""
node.kubernetes.io/exclude-from-external-load-balancers: ""
name: node1
spec:
addresses:
- address: 192.168.10.11/24
type: CalicoNodeIP
- address: 192.168.10.11
type: InternalIP
bgp:
asNumber: 65003 ## asNumber 根据自己需要进行修改,这些改为跟上联 leaf 交换机一样的 as 号
ipv4Address: 192.168.10.11/24
routeReflectorClusterID: 192.168.10.11 ## routeReflectorClusterID一般改成自己节点的IP地址
ipv4IPIPTunnelAddr: 10.233.82.0
orchRefs:
- nodeName: node1
orchestrator: k8s
status:
podCIDRs:
- 10.233.64.0/24
执行如下命令使配置生效:
[root@node1 ~]# calicoctl apply -f node1.yaml
Successfully applied 1 'Node' resource(s)
将所有节点的 Calico 配置信息全部修改之后,通过 calicoctl get nodes -o wide
命令获取到的节点信息如下:
[root@node1 ~]# calicoctl get nodes -o wide
NAME ASN IPV4 IPV6
node1 65003 192.168.10.11/24
node2 65003 192.168.10.12/24
node3 65003 192.168.10.13/24
node4 65004 192.168.11.11/24
node5 65004 192.168.11.12/24
node6 65004 192.168.11.13/24
上面可以看到所有的 ASN 号都已变为手动指定的,不再是全局默认的。
为 node 节点进行分组(添加label)
为方便让 BGPPeer 轻松选择节点,在 Kubernetes 集群中,我们需要将所有节点通过打 label 的方式进行分组,这里,我们将 label 标签分为下面几种:
rr-group 这里定义为节点所属的 Calico RR 组,主要有 rr1
和 rr2
两种,为不同 leaf 交换机下的 Calico RR
rr-id 这里定义为所属 Calico RR 的 ID,节点添加了该标签说明该节点作为了路由反射器,主要有 rr1
和 rr2
两种,为不同 leaf 交换机下的 Calico RR,如下示意:
按照上图通过以下命令为每个节点添加 label :
[root@node1 ~]# kubectl label nodes node1 rr-group=rr1
[root@node1 ~]# kubectl label nodes node2 rr-group=rr1
[root@node1 ~]# kubectl label nodes node3 rr-group=rr1
[root@node1 ~]# kubectl label nodes node1 rr-id=rr1
[root@node1 ~]# kubectl label nodes node2 rr-id=rr1
[root@node1 ~]# kubectl label nodes node4 rr-group=rr2
[root@node1 ~]# kubectl label nodes node5 rr-group=rr2
[root@node1 ~]# kubectl label nodes node6 rr-group=rr2
[root@node1 ~]# kubectl label nodes node4 rr-id=rr2
[root@node1 ~]# kubectl label nodes node5 rr-id=rr2
查看最终设置情况:
[root@node1 ~]# kubectl get nodes --show-labels
NAME STATUS ROLES AGE VERSION LABELS
node1 Ready control-plane,master 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node1,kubernetes.io/os=linux,node-role.kubernetes.io/control-plane=,node-role.kubernetes.io/master=,node.kubernetes.io/exclude-from-external-load-balancers=,rr-group=rr1,rr-id=rr1
node2 Ready control-plane,master 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node2,kubernetes.io/os=linux,node-role.kubernetes.io/control-plane=,node-role.kubernetes.io/master=,node.kubernetes.io/exclude-from-external-load-balancers=,rr-group=rr1,rr-id=rr1
node3 Ready control-plane,master 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node3,kubernetes.io/os=linux,node-role.kubernetes.io/control-plane=,node-role.kubernetes.io/master=,node.kubernetes.io/exclude-from-external-load-balancers=,rr-group=rr1
node4 Ready worker 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node4,kubernetes.io/os=linux,node-role.kubernetes.io/worker=,rr-group=rr2,rr-id=rr2
node5 Ready worker 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node5,kubernetes.io/os=linux,node-role.kubernetes.io/worker=,rr-group=rr2,rr-id=rr2
node6 Ready worker 15h v1.21.5 beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=node6,kubernetes.io/os=linux,node-role.kubernetes.io/worker=,rr-group=rr2
配置BGPPeer
在配置 BGPPeer 之前,我们可以先查看一下各个 node BGP 的节点状态,因为已经禁用了 Full-mesh,并且现在还没有配置 BGPPeer,所以所有节点里的信息都是空的。
$ calicoctl node status
Calico process is running.
IPv4 BGP status
No IPv4 peers found.
IPv6 BGP status
No IPv6 peers found.
根据环境拓扑,node1 和 node2 作为 Calico RR,需要和 server leaf1 交换机建立 iBGP
连接;node4 和 node5 作为 Calico RR 需要和 server leaf2 交换机建立 iBGP
连接;node1、node2 和 node3 需要和 RR1 建立 iBGP
连接;node4、node5 和 node6 需要和 RR2 建立 iBGP
连接。按照下面步骤依次配置:
RR1 和 server leaf1 建立 iBGP 连接
编辑配置文件,取名 rr1-to-leaf1-peer.yaml
,配置文件编辑如下:
[root@node1 ~]# vim rr1-to-leaf1-peer.yaml
apiVersion: projectcalico.org/v3
kind: BGPPeer
metadata:
name: rr1-to-leaf1-peer ## 给 BGPPeer 取一个名称,方便识别
spec:
nodeSelector: rr-id == 'rr1' ## 通过节点选择器添加有 rr-id == 'rr1' 标签的节点
peerIP: 10.254.254.3 ## server leaf1 交换机的 loopback 地址
asNumber: 65003 ## server leaf1 交换机的 AS 号
应用该配置:
[root@qkcp-master1 ~]# calicoctl apply -f rr1-to-leaf1-peer.yaml
Successfully applied 1 'BGPPeer' resource(s)
RR1 和自己所属的节点建立 iBGP 连接
RR1 所属的节点主要有 node1、node2 和 node3,也就是打了 rr-group=rr1
标签的节点,配置文件编写如下:
[root@node1 ~]# vim rr1-to-node-peer.yaml
apiVersion: projectcalico.org/v3
kind: BGPPeer
metadata:
name: rr1-to-node-peer ## 给 BGPPeer 取一个名称,方便识别
spec:
nodeSelector: rr-group == 'rr1' ## 通过节点选择器添加有 rr-group == ‘rr1’标签的节点
peerSelector: rr-id == 'rr1' ## 通过 peer 选择器添加有rr-id == ‘rr1’标签的路由反射器
应用该配置:
[root@node1 ~]# calicoctl apply -f rr1-to-node-peer.yaml
Successfully applied 1 'BGPPeer' resource(s)
配置 server leaf1 交换机
不同的交换机的 BGP 配置不同,本次试验环境采用的是 H3C 交换机,此部分内容仅作参考。
在 leaf01 交换机上操作,建立 leaf01 交换机和 RR1 的 iBGP
连接,交换机配置参考如下:
<leaf01>system-view
[leaf01]bgp 65003
[leaf01-bgp]router-id 10.254.254.3
[leaf01-bgp]peer 192.168.10.11 as-number 65003
[leaf01-bgp]peer 192.168.10.12 as-number 65003
[leaf01-bgp]peer 192.168.10.11 connect-interface LoopBack 0
[leaf01-bgp]peer 192.168.10.12 connect-interface LoopBack 0
[leaf01-bgp]address-family ipv4 unicast
[leaf01-bgp-ipv4]peer 192.168.10.11 enable
[leaf01-bgp-ipv4]peer 192.168.10.12 enable
[leaf01-bgp-ipv4]quit
交换机配置完成后,可以查看交换机 bgp peer 的连接状态:
[leaf01]display bgp peer ipv4
BGP local router ID: 10.254.254.3
Local AS number: 65003
Total number of peers: 3 Peers in established state: 3
* - Dynamically created peer
Peer AS MsgRcvd MsgSent OutQ PrefRcv Up/Down State
10.254.254.1 65001 316 422 0 9 04:41:04 Established
192.168.10.11 65003 6 12 0 3 00:02:29 Established
192.168.10.12 65003 8 9 0 3 00:00:28 Established
上面 192.168.10.11
和 192.168.10.12
是 node1 和 node2 节点,也就是 RR1。状态显示为 Established
说明 BGP 连结已建立。
RR2 和 server leaf2 建立 iBGP 连接
编写配置文件,取名为 rr2-to-leaf2-peer.yaml
,配置文件编写如下:
[root@node1 ~]# vim rr2-to-leaf2-peer.yaml
apiVersion: projectcalico.org/v3
kind: BGPPeer
metadata:
name: rr2-to-leaf2-peer ## 给 BGPPeer 取一个名称,方便识别
spec:
nodeSelector: rr-id == 'rr2' ## 通过节点选择器添加有 rr-id == 'rr2' 标签的节点
peerIP: 10.254.254.4 ## server leaf2 交换机的 loopback 地址
asNumber: 65004 ## server leaf2 交换机的AS号
应用该配置:
[root@node1 ~]# calicoctl apply -f rr2-to-leaf2-peer.yaml
Successfully applied 1 'BGPPeer' resource(s)
RR2 和自己所属的节点建立 iBGP 连接
RR2 所属的节点主要有 node4、node5 和 node6,也就是打了 rr-group=rr2
标签的节点,配置文件编写如下:
apiVersion: projectcalico.org/v3
kind: BGPPeer
metadata:
name: rr2-to-node-peer ## 给 BGPPeer 取一个名称,方便识别
spec:
nodeSelector: rr-group == 'rr2' ## 通过节点选择器添加有 rr-group == ‘rr2’ 标签的节点
peerSelector: rr-id == 'rr2' ## 通过 peer 选择器添加有 rr-id == ‘rr2’ 标签的路由反射器
应用该配置:
[root@node1 ~]# calicoctl apply -f rr2-to-node-peer.yaml
Successfully applied 1 'BGPPeer' resource(s)
配置 server leaf2 交换机
不同的交换机的 BGP 配置不同,本次试验环境采用的是 H3C 交换机,此部分内容仅作参考。
在 leaf02 交换机上操作,建立 leaf01 交换机和 RR1 的 iBGP
连接,交换机配置参考如下:
<leaf02>system-view
[leaf02]bgp 65004
[leaf02-bgp]router-id 10.254.254.4
[leaf02-bgp]peer 192.168.11.11 as-number 65004
[leaf02-bgp]peer 192.168.11.12 as-number 65004
[leaf02-bgp]peer 192.168.11.11 connect-interface LoopBack 0
[leaf02-bgp]peer 192.168.11.12 connect-interface LoopBack 0
[leaf02-bgp]address-family ipv4 unicast
[leaf02-bgp-ipv4]peer 192.168.11.11 enable
[leaf02-bgp-ipv4]peer 192.168.11.12 enable
[leaf02-bgp-ipv4]quit
交换机配置完成后,可以查看交换机 bgp peer 的连接状态:
[leaf02-bgp]display bgp peer ipv4
BGP local router ID: 10.254.254.4
Local AS number: 65004
Total number of peers: 3 Peers in established state: 3
* - Dynamically created peer
Peer AS MsgRcvd MsgSent OutQ PrefRcv Up/Down State
10.254.254.1 65001 399 386 0 11 04:50:49 Established
192.168.11.11 65004 8 10 0 3 00:00:16 Established
192.168.11.12 65004 8 10 0 3 00:00:13 Established
```bash
上面 `192.168.11.11` 和 `192.168.11.12` 是 **node4** 和 **node5** 节点,也就是 **RR2**。状态显示为 `Established` 说明 BGP 连结已建立。
最后,我们可以通过 `calicoctl get bgppeer` 命令来查看所有 **BGPPeer** 配置条目:
```bash
[root@node1 ~]# calicoctl get bgppeer
NAME PEERIP NODE ASN
rr1-to-leaf1-peer 10.254.254.3 rr-id == 'rr1' 65003
rr1-to-node-peer rr-group == 'rr1' 0
rr2-to-leaf2-peer 10.254.254.4 rr-id == 'rr2' 65004
rr2-to-node-peer rr-group == 'rr2' 0
如果想删除某个 BGPPeer 条目,可以通过下面的命令:
$ calicoctl delete bgppeer rr2-to-node-peer
工作节点配置验证
至此,BGPPeer 配置已完成,可以在各个节点里再次查看 BGPPeer 状态信息。
在 node1 节点操作:
[root@node1 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 192.168.10.12 | node specific | up | 07:25:47 | Established |
| 192.168.10.13 | node specific | up | 07:25:53 | Established |
| 10.254.254.3 | node specific | up | 08:07:10 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和 leaf01 交换机、node2 和 node3 节点建立了 iBGP 连接。
在 **node2 ** 节点操作:
[root@node2 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 192.168.10.11 | node specific | up | 07:25:47 | Established |
| 192.168.10.13 | node specific | up | 07:25:53 | Established |
| 10.254.254.3 | node specific | up | 08:39:21 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和 leaf01 交换机、node1 和 node3 节点建立了 iBGP 连接。
在 node3 节点操作:
[root@node3 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 192.168.10.11 | node specific | up | 07:25:54 | Established |
| 192.168.10.12 | node specific | up | 07:25:54 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和 node1 和 node2 节点建立了 iBGP
连接,因为该节点不作为路由反射器节点,所以并未与 leaf01 交换机建立 iBGP
连接。
在 node4 节点操作:
[root@node4 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 10.254.254.4 | node specific | up | 09:47:11 | Established |
| 192.168.11.12 | node specific | up | 09:34:29 | Established |
| 192.168.11.13 | node specific | up | 09:35:34 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和** leaf02** 交换机、node5 和 node6 节点建立了 iBGP
连接。
在 node5 节点操作:
[root@node5 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 10.254.254.4 | node specific | up | 09:48:12 | Established |
| 192.168.11.11 | node specific | up | 09:48:32 | Established |
| 192.168.11.13 | node specific | up | 09:48:44 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和 leaf02 交换机、node4 和 node6 节点建立了 BGP
连接。
在 node6 节点操作:
[root@qkcp-node3 ~]# calicoctl node status
Calico process is running.
IPv4 BGP status
+---------------+---------------+-------+----------+-------------+
| PEER ADDRESS | PEER TYPE | STATE | SINCE | INFO |
+---------------+---------------+-------+----------+-------------+
| 192.168.11.11 | node specific | up | 09:35:33 | Established |
| 192.168.11.12 | node specific | up | 09:35:34 | Established |
+---------------+---------------+-------+----------+-------------+
IPv6 BGP status
No IPv6 peers found.
可以看到该节点已经和 node4 和 node5 节点建立了 iBGP
连接,因为该节点不作为路由反射器节点,所以并未与 leaf02 交换机建立 iBGP
连接。
交换机配置验证
我们可以在所有交换机里去查看 BGP 同步的路由信息有没有署于 pod 的路由地址。
Spine 交换机操作:
[spine]display bgp routing-table ipv4
Total number of routes: 23
BGP local router ID is 10.254.254.1
Status codes: * - valid, > - best, d - dampened, h - history,
s - suppressed, S - stale, i - internal, e - external
Origin: i - IGP, e - EGP, ? - incomplete
Network NextHop MED LocPrf PrefVal Path/Ogn
* >e 0.0.0.0 10.254.254.2 0 0 65002?
* >e 10.0.86.0/24 10.254.254.2 0 0 65002?
* >e 10.233.64.0/24 10.254.254.4 0 65004i
* >e 10.233.69.0/24 10.254.254.4 0 65004i
* >e 10.233.79.0/24 10.254.254.3 0 65003i
* >e 10.233.81.0/24 10.254.254.3 0 65003i
* >e 10.233.82.0/24 10.254.254.3 0 65003i
* >e 10.233.90.0/24 10.254.254.4 0 65004i
* > 10.254.254.1/32 127.0.0.1 0 32768 ?
* >e 10.254.254.2/32 10.254.254.2 0 0 65002?
* >e 10.254.254.3/32 10.254.254.3 0 0 65003?
* >e 10.254.254.4/32 10.254.254.4 0 0 65004?
* > 10.255.201.0/24 10.255.201.1 0 32768 ?
* e 10.254.254.2 0 0 65002?
* > 10.255.201.1/32 127.0.0.1 0 32768 ?
* > 10.255.202.0/24 10.255.202.1 0 32768 ?
* e 10.254.254.3 0 0 65003?
* > 10.255.202.1/32 127.0.0.1 0 32768 ?
* > 10.255.203.0/24 10.255.203.1 0 32768 ?
* e 10.254.254.4 0 0 65004?
* > 10.255.203.1/32 127.0.0.1 0 32768 ?
* >e 192.168.10.0 10.254.254.3 0 0 65003?
* >e 192.168.11.0 10.254.254.4 0 0 65004?
Leaf01 交换机操作:
[leaf01]display bgp routing-table ipv4
Total number of routes: 20
BGP local router ID is 10.254.254.3
Status codes: * - valid, > - best, d - dampened, h - history,
s - suppressed, S - stale, i - internal, e - external
Origin: i - IGP, e - EGP, ? - incomplete
Network NextHop MED LocPrf PrefVal Path/Ogn
* >e 0.0.0.0 10.254.254.1 0 65001
65002?
* >e 10.0.86.0/24 10.254.254.1 0 65001
65002?
* >e 10.233.64.0/24 10.254.254.1 0 65001
65004i
* >e 10.233.69.0/24 10.254.254.1 0 65001
65004i
* >i 10.233.79.0/24 192.168.10.13 100 0 i
* >i 10.233.81.0/24 192.168.10.12 100 0 i
* >i 10.233.82.0/24 192.168.10.11 100 0 i
* >e 10.233.90.0/24 10.254.254.1 0 65001
65004i
* >e 10.254.254.1/32 10.254.254.1 0 0 65001?
* >e 10.254.254.2/32 10.254.254.1 0 65001
65002?
* > 10.254.254.3/32 127.0.0.1 0 32768 ?
* >e 10.254.254.4/32 10.254.254.1 0 65001
65004?
* >e 10.255.201.0/24 10.254.254.1 0 0 65001?
* > 10.255.202.0/24 10.255.202.2 0 32768 ?
* e 10.254.254.1 0 0 65001?
* > 10.255.202.2/32 127.0.0.1 0 32768 ?
* >e 10.255.203.0/24 10.254.254.1 0 0 65001?
* > 192.168.10.0 192.168.10.254 0 32768 ?
* > 192.168.10.254/32 127.0.0.1 0 32768 ?
* >e 192.168.11.0 10.254.254.1 0 65001
65004?
Leaf02 交换机操作:
[leaf02]display bgp routing-table ipv4
Total number of routes: 20
BGP local router ID is 10.254.254.4
Status codes: * - valid, > - best, d - dampened, h - history,
s - suppressed, S - stale, i - internal, e - external
Origin: i - IGP, e - EGP, ? - incomplete
Network NextHop MED LocPrf PrefVal Path/Ogn
* >e 0.0.0.0 10.254.254.1 0 65001
65002?
* >e 10.0.86.0/24 10.254.254.1 0 65001
65002?
* >i 10.233.64.0/24 192.168.11.12 100 0 i
* >i 10.233.69.0/24 192.168.11.13 100 0 i
* >e 10.233.79.0/24 10.254.254.1 0 65001
65003i
* >e 10.233.81.0/24 10.254.254.1 0 65001
65003i
* >e 10.233.82.0/24 10.254.254.1 0 65001
65003i
* >i 10.233.90.0/24 192.168.11.11 100 0 i
* >e 10.254.254.1/32 10.254.254.1 0 0 65001?
* >e 10.254.254.2/32 10.254.254.1 0 65001
65002?
* >e 10.254.254.3/32 10.254.254.1 0 65001
65003?
* > 10.254.254.4/32 127.0.0.1 0 32768 ?
* >e 10.255.201.0/24 10.254.254.1 0 0 65001?
* >e 10.255.202.0/24 10.254.254.1 0 0 65001?
* > 10.255.203.0/24 10.255.203.2 0 32768 ?
* e 10.254.254.1 0 0 65001?
* > 10.255.203.2/32 127.0.0.1 0 32768 ?
* >e 192.168.10.0 10.254.254.1 0 65001
65003?
* > 192.168.11.0 192.168.11.254 0 32768 ?
* > 192.168.11.254/32 127.0.0.1 0 32768 ?
在上面交换机输出内容中,10.233 开头的地址段都是 pod 地址段的路由信息。
#将 Service 地址路由同步到物理网络
有些时候不光需要 Pod 地址可以在现网可被路由,Service 地址也会有这个需求,我们可以通过修改 bgpconfig 配置来实现 Service 地址的路由同步。
首先检查是否具有默认的 BGP 配置:
[root@node1 ~]# calicoctl get bgpconfig default
NAME LOGSEVERITY MESHENABLED ASNUMBER
default Info false 65003
默认的 BGP 配置是存在的,更新 BGP 配置:
[root@node1 ~]# calicoctl patch BGPConfig default --patch \
> '{"spec": {"serviceClusterIPs": [{"cidr": "10.233.0.0/18"}]}}'
Successfully patched 1 'BGPConfiguration' resource
注意将上面 10.233.0.0/18
地址段修改为 Service 的地址段。
上述配置完成之后,便可以在交换机里看到已经同步过来的 Service 地址段的路由信息。
文档参考链接
绝大多数配置都可以通过 Calico 官方文档获取,以下就是撰写本文参考的主要官方文档链接: