自宅で手軽に NSX 4.1(旧 NSX-T)の機能を動作確認できるようにラボを構築します。
このシリーズは、以前に投稿した NSX-T 3.1 バージョンのブログ の更新版です。
0. ラボ構築の流れ
- Step-01: はじめに ※この投稿
- Step-02: 物理 / ネストの外側での準備
- Step-03: 仮想スイッチの構成
- Step-04: NSX Manager のデプロイ
- Step-05: ESXi への NSX インストール(ホスト トランスポート ノードの準備)
- Step-06: Edge トランスポート ノードの準備
- Step-07: Tier-0 ゲートウェイの作成
- Step-08: Tier-1 ゲートウェイの作成
- Step-09: オーバーレイ セグメントの作成
- Step-10: DHCP サーバの構成
- Step-11: SNAT ルールの追加
- Step-12: トレース フローでの疎通確認
1. ラボ環境のイメージ
NSX ラボの構成を、イメージ図で紹介しておきます。
1-1. コンポーネント配置のイメージ図
自宅ラボ全体を管理する vSphere 環境(vCenter & ESXi)のうえに、ネステッド vSphere 環境を構築して NSX ラボにします。
- 自宅ラボ全体の vSphere 環境を管理する vCenter: infra-vc-01
- ネステッド vSphere 環境を管理する vCenter: lab-vc-02 → NSX ラボを構築
ただし、vCenter / NSX Manager / DNS / NTP / NFS は、ネストの外側に配置します。
1-2. ネットワーク構成のイメージ図
NSX ラボ環境のために、4つのネットワーク(VLAN)を用意してあります。
- 管理ネットワーク: 192.168.10.0/24
- Edge Uplink ネットワーク(NSX - 外部の境界): 192.168.120.0/24
- Host(ESXi)TEP ネットワーク: 192.168.121.0/24
- Edge TEP ネットワーク: 192.168.122.0/24
ネストされた環境なので、vSphere の仮想スイッチも 2段になっています。
2. ラボ構成の方針
今回構築するラボ環境の構成方針です。
2-1. 利用するソフトウェア
NSX / vSphere は、執筆時点での最新バージョンを利用します。
今回のソフトウェア バージョンは下記です。ただし、ネストの外側(物理ホスト側の)では、他の検証環境との兼ね合いもあるので枯れバージョンの vSphere 7.0 U3 を利用しています。
- vSphere 8.0 U2(vCenter Server 8.0 U2 / ESXi 8.0 U2)
- NSX 4.1.1
vSphere 8.0 U2 の環境構築については、後輩の投稿したブログがあるので下記をどうぞ。この環境とは構成が異なりますが、ESXi / vCenter / vDS などの構築手順が紹介されています。
NSX のソフトウェアと 60日間の評価ライセンス キーは、VMware Custommer Connect から入手できます。Web サイトは、2023年10月時点ではまだ NSX-T 表記のままです。
2-2. 物理ホスト
物理ホストには、Intel NUC を複数台使用します。
複数の NUC モデルを混在していますが、代表として NUC13ANHi5 のリソースは下記
- CPU: 2.19 GHz 4コア / 8スレッド(Core i5-1340P、Pコアのみ有効化)
- メモリ: 64GB
- NIC: 1Gbps x 1(USB NIC)
- ストレージ
- ブートデバイス: 64GB USB メモリ
- データストア: All Flash vSAN(ただしネットワークは 1Gbps)
NSX の基本機能を試すには問題ないと思いますが、Edge 仮想マシンで多数の vCPU が必要になったりした場合には、専用に別マシンを用意するつもりです。
2-3. データストア
ネステッド ESXi でのメモリ使用量削減のため、共有データストアには vSAN を使用せず、NFS を用意します。
NFS サーバには、下記のような手順で構築した Linux 仮想マシンを利用しています。
ESXi → NFS のマウントは、物理マシンが 1ポートしかなく、しかも NSX の検証にあまり関係しないので、ストレージ専用ネットワークは用意せず管理ネットワーク(vmk0)経由にしています。
2-4. 仮想マシンの配置とリソース割り当て
私の自宅ラボには、完全に NSX の製品要件をみたせるスペックの物理マシンがないので、仮想マシンの配置とリソース設定に、ラボむけの工夫をしています。
- 手軽さを考えると物理マシン 1台の上にネスト環境を構成したいところですが、スペック不足のため複数台の物理 ESXi ホストを使用しています。
- VCSA と NSX Manager は CPU / メモリのリソース割り当てが大きいので、あえてネスト環境よりも外側(物理ホストの vSphere 側)に配置。そのため、NSX を導入する vSphere 環境の vSphere Client からは、その2台の仮想マシンは見えません。
- NSX 関連の仮想マシンの台数やリソース割り当ては、動作するのであれば推奨値以下 / サポート対象外構成でもよしとする。
- NSX Manager は、仮想マシンのリソース予約を解除する。そして3ノード クラスタ構成ではなくシングル構成にする。
- NSX Edge は 2台用意するが、最小のサイズ。スペックが必要な場合は 1台にして CPU / メモリを一時的に追加する。
2-5. ネットワーク構成
ネットワーク構成は、NSX 関連コンポーネントの理解と、UI / API の操作感の確認しやすさを優先しています。そもそも物理ホストが 1Gbps NIC x1 の構成なので、パフォーマンスや耐障害性の確認などはスコープ外と考えています。
- NSX Edge は、あえてオーバーレイ ネットワークを構成する Compute クラスタ(ホスト トランスポート ノード)とは別のクラスタに配置。これは、ESXi のトランスポート ノードと、Edge トランスポート ノードの、ESXi の構成差異を体感しやすくするため。
- 外部ネットワークと NSX ネットワークの境界になる Tier-0 ゲートウェイでは、スタティックルート(ルーティング プロトコルなし)で NSX のネットワークへ。
- オーバーレイの TEP(GENEVE のトンネル エンド ポイント)では、Host / Edge で別の VLAN ID を付与。NSX の製品仕様の都合により、Edge TEP / ESXi TEP 間の通信でいちど物理ネットワークに抜けることでトラブル回避しやすくするため。
- オーバーレイ ネットワークを利用する Compute クラスタでは、2ノードの ESXi を用意。これは ESXi ホストをまたぐ通信の確認をするため。
- NFS データストア接続と vMotion ネットワークは、vmk0 の管理ネットワークを兼用。NSX とは直接的に関係しないため。
- オーバーレイ ネットワークで利用する pNIC ポート(ESXi VM の vNIC)はあえて複数用意しておく。アップリンク プロファイルを理解しやすいように、vmnic1 + vmnic2 のように冗長構成っぽくする。
- 「外部ネットワーク」のルータは、じつは自宅ラボに既設の Linux マシン。
3. NSX を導入する vSphere クラスタの構成
NSX を導入する vSphere 環境は、2つのクラスタを作成してあります。この環境は、ネスト構成にしてあります。
- lab-cluster-21: NSX Edge 仮想マシンを稼働させる ESXi を配置
- lab-cluster-22: NSX をインストールする ESXi を配置
この vSphere 環境は、コンポーネント配置のイメージ図では、赤枠のあたりです。
つづく。