vm.gowatana.jp

NEOにほんごVMware(仮)

VCF 5.2.1 で NSX Edge Cluster をデプロイしてみる。(BGP あり)Part-03:セグメント追加での動作確認

VMware Cloud Foundation(VCF)5.2.1 で、SDDC Manager から BGP を利用する NSX Edge クラスタを展開してみました。今回は、Tier-1 ゲートウェイに接続する NSX セグメントを作成して、実際にルーティングされることを確認してみます。

 

前回はこちら。

 

今回の環境

今回は、作業用 Windows から、NSX Tier-1 ゲートウェイに接続したオーバーレイ セグメントへの通信が可能になることを確認しておきます。

作業用 Windows には、じつは検証環境外との踏み台としても利用しているため、オーバーレイ セグメントへのスタティック ルートを追加します。

 

1. NSX オーバーレイ セグメントの追加

NSX Manager で、オーバーレイ セグメントを作成します。

まずは、オーバーレイ トランスポート ゾーンを確認しておきます。この環境では、「vcf-m01-tz-overlay01」が作成されています。「トランスポート ノード」にある数字のリンク(6)を開きます。

 

クラスタにある、すべての ESXi ホストが接続されています。

 

Edge ノードも、すべて接続されています。

 

「ネットワーク」タブ →「接続」→「セグメント」を開き、「セグメントの追加」をクリックします。

 

セグメントのパラメータを入力して、「保存」をクリックします。

  • 名前:seg-overlay-01
  • 接続されたゲートウェイ:vcf-m01-t1 | Tier-1
  • トランスポート ゾーン:vcf-m01-tz-overlay01
  • サブネット:10.0.1.1/24

 

「構成を続行しますか?」は、「いいえ」で閉じます。

 

これで、Tier-1 ゲートウェイに接続されたオーバーレイ セグメントが作成されました。

 

2. ルート情報追加の確認(Ext Gateway)

Tier-1 ゲートウェイで「ルート アドバタイズ」を開くと、接続されているすべてのセグメントが対象になっています。

 

Tier-0 ゲートウェイでも、設定内容を確認しておきます。「ルート再配分」にある「1」のリンクを開きます。

 

「ルート再配分」にあるリンク(11)を開きます。

 

下記のように、ルート再配分の設定内容が確認できます。

 

Linux ルーターでは、下記のようにオーバーレイ セグメント(10.0.1.0/24)宛の経路を受け取れています。

[root@vcf-gw-01 ~]# vtysh -c "show ip bgp detail"
BGP table version is 3, local router ID is 192.168.76.1, vrf id 0
Default local pref 100, local AS 65001
Status codes:  s suppressed, d damped, h history, * valid, > best, = multipath,
               i internal, r RIB-failure, S Stale, R Removed
Nexthop codes: @NNN nexthop's vrf id, < announce-nh-self
Origin codes:  i - IGP, e - EGP, ? - incomplete

   Network          Next Hop            Metric LocPrf Weight Path
*= 10.0.1.0/24      192.168.76.16            0    100      0 65002 ?
*=                  192.168.77.16            0    100      0 65002 ?
*=                  192.168.77.17            0    100      0 65002 ?
*>                  192.168.76.17            0    100      0 65002 ?
*  192.168.76.0/24  192.168.76.16            0    100      0 65002 ?
*                   192.168.77.16            0    100      0 65002 ?
*                   192.168.76.17            0    100      0 65002 ?
*                   192.168.77.17            0    100      0 65002 ?
*>                  0.0.0.0                  0         32768 i
*  192.168.77.0/24  192.168.76.16            0    100      0 65002 ?
*                   192.168.77.16            0    100      0 65002 ?
*                   192.168.76.17            0    100      0 65002 ?
*                   192.168.77.17            0    100      0 65002 ?
*>                  0.0.0.0                  0         32768 i

Displayed  3 routes and 14 total paths

 

3. 仮想マシンの用意

今回も、Photon OS 5.0 の OVA を「vm01」という名前でデプロイしてあります。

root@vm01 [ ~ ]# cat /etc/photon-release
VMware Photon OS 5.0
PHOTON_BUILD_NUMBER=dde71ec57

 

この仮想マシンは、さきほど作成したオーバーレイ セグメントに接続されています

 

下記のように、一時的に IP アドレスを設定してあります。

root@vm01 [ ~ ]# ip addr add dev eth0 10.0.1.11/24
root@vm01 [ ~ ]# ip addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether 00:50:56:b2:b4:b5 brd ff:ff:ff:ff:ff:ff
    altname eno1
    altname enp11s0
    altname ens192
    inet 10.0.1.11/24 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::250:56ff:feb2:b4b5/64 scope link
       valid_lft forever preferred_lft forever

 

デフォルト ゲートウェイも設定しておきます。

root@vm01 [ ~ ]# ip route add default via 10.0.1.1
root@vm01 [ ~ ]# ip route show
default via 10.0.1.1 dev eth0
10.0.1.0/24 dev eth0 proto kernel scope link src 10.0.1.11

 

ファイアウォール(iptables)は停止しておきます。

root@vm01 [ ~ ]# systemctl stop iptables

 

4. 動作確認

作業用 Windows から、vm01 に ping で疎通確認してみます。

PS> ping 10.0.1.11

10.0.1.11 に ping を送信しています 32 バイトのデータ:
10.0.1.11 からの応答: バイト数 =32 時間 =7ms TTL=61
10.0.1.11 からの応答: バイト数 =32 時間 =5ms TTL=61
10.0.1.11 からの応答: バイト数 =32 時間 =40ms TTL=61
10.0.1.11 からの応答: バイト数 =32 時間 =6ms TTL=61

10.0.1.11 の ping 統計:
    パケット数: 送信 = 4、受信 = 4、損失 = 0 (0% の損失)、
ラウンド トリップの概算時間 (ミリ秒):
    最小 = 5ms、最大 = 40ms、平均 = 14ms

 

vm01 から、作業用 Windows(192.168.70.2)に ping で疎通確認してみます。

root@vm01 [ ~ ]# ping -c 4 192.168.70.2
PING 192.168.70.2 (192.168.70.2) 56(84) bytes of data.
64 bytes from 192.168.70.2: icmp_seq=1 ttl=125 time=6.96 ms
64 bytes from 192.168.70.2: icmp_seq=2 ttl=125 time=6.42 ms
64 bytes from 192.168.70.2: icmp_seq=3 ttl=125 time=13.3 ms
64 bytes from 192.168.70.2: icmp_seq=4 ttl=125 time=7.00 ms

--- 192.168.70.2 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3006ms
rtt min/avg/max/mdev = 6.419/8.406/13.252/2.806 ms

 

vm01 から、作業用 Windows への tracepath の様子です。

root@vm01 [ ~ ]# tracepath -n 192.168.70.2
 1?: [LOCALHOST]                      pmtu 1500
 1:  10.0.1.1                                              1.268ms asymm 64
 1:  10.0.1.1                                              0.379ms asymm 64
 2:  100.64.0.0                                           10.230ms
 3:  192.168.76.1                                         18.350ms
 4:  192.168.70.2                                         18.432ms reached
     Resume: pmtu 1500 hops 4 back 4

 

vm01 から、インターネットへも出られています。

root@vm01 [ ~ ]# ping -c 4 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=110 time=15.6 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=110 time=19.1 ms
64 bytes from 8.8.8.8: icmp_seq=3 ttl=110 time=11.7 ms
64 bytes from 8.8.8.8: icmp_seq=4 ttl=110 time=19.9 ms

--- 8.8.8.8 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3005ms
rtt min/avg/max/mdev = 11.700/16.572/19.860/3.241 ms

 

以上、VCF の Workload Domain に BGP が有効な NSX Edge Cluster を追加してみる話でした。