vm.gowatana.jp

NEOにほんごVMware(仮)

自宅ラボ NSX 4.1 の構築。Step-01: はじめに

自宅で手軽に NSX 4.1(旧 NSX-T)の機能を動作確認できるようにラボを構築します。
このシリーズは、以前に投稿した NSX-T 3.1 バージョンのブログ の更新版です。

 

0. ラボ構築の流れ

 

1. ラボ環境のイメージ

NSX ラボの構成を、イメージ図で紹介しておきます。

 

1-1. コンポーネント配置のイメージ図

自宅ラボ全体を管理する vSphere 環境(vCenter & ESXi)のうえに、ネステッド vSphere 環境を構築して NSX ラボにします。

  • 自宅ラボ全体の vSphere 環境を管理する vCenter: infra-vc-01
  • ネステッド vSphere 環境を管理する vCenter: lab-vc-02 → NSX ラボを構築

ただし、vCenter / NSX Manager / DNS / NTP / NFS は、ネストの外側に配置します。

 

1-2. ネットワーク構成のイメージ図

NSX ラボ環境のために、4つのネットワーク(VLAN)を用意してあります。

  1. 管理ネットワーク: 192.168.10.0/24
  2. Edge Uplink ネットワーク(NSX - 外部の境界): 192.168.120.0/24
  3. Host(ESXi)TEP ネットワーク: 192.168.121.0/24
  4. Edge TEP ネットワーク: 192.168.122.0/24

ネストされた環境なので、vSphere の仮想スイッチも 2段になっています。

 

2. ラボ構成の方針

今回構築するラボ環境の構成方針です。

 

2-1. 利用するソフトウェア

NSX / vSphere は、執筆時点での最新バージョンを利用します。

今回のソフトウェア バージョンは下記です。ただし、ネストの外側(物理ホスト側の)では、他の検証環境との兼ね合いもあるので枯れバージョンの vSphere 7.0 U3 を利用しています。

  • vSphere 8.0 U2(vCenter Server 8.0 U2 / ESXi 8.0 U2)
  • NSX 4.1.1

 

vSphere 8.0 U2 の環境構築については、後輩の投稿したブログがあるので下記をどうぞ。この環境とは構成が異なりますが、ESXi / vCenter / vDS などの構築手順が紹介されています。

licensecounter.jp

 

NSX のソフトウェアと 60日間の評価ライセンス キーは、VMware Custommer Connect から入手できます。Web サイトは、2023年10月時点ではまだ NSX-T 表記のままです。

 

2-2. 物理ホスト

物理ホストには、Intel NUC を複数台使用します。

複数の NUC モデルを混在していますが、代表として NUC13ANHi5 のリソースは下記

  • CPU: 2.19 GHz 4コア / 8スレッド(Core i5-1340P、Pコアのみ有効化)
  • メモリ: 64GB
  • NIC: 1Gbps x 1(USB NIC)
  • ストレージ
    • ブートデバイス: 64GB USB メモリ
    • データストア: All Flash vSAN(ただしネットワークは 1Gbps)

NSX の基本機能を試すには問題ないと思いますが、Edge 仮想マシンで多数の vCPU が必要になったりした場合には、専用に別マシンを用意するつもりです。

 

2-3. データストア

ネステッド ESXi でのメモリ使用量削減のため、共有データストアには vSAN を使用せず、NFS を用意します。

NFS サーバには、下記のような手順で構築した Linux 仮想マシンを利用しています。

 

ESXi → NFS のマウントは、物理マシンが 1ポートしかなく、しかも NSX の検証にあまり関係しないので、ストレージ専用ネットワークは用意せず管理ネットワーク(vmk0)経由にしています。

 

2-4. 仮想マシンの配置とリソース割り当て

私の自宅ラボには、完全に NSX の製品要件をみたせるスペックの物理マシンがないので、仮想マシンの配置とリソース設定に、ラボむけの工夫をしています。

  • 手軽さを考えると物理マシン 1台の上にネスト環境を構成したいところですが、スペック不足のため複数台の物理 ESXi ホストを使用しています。
  • VCSA と NSX Manager は CPU / メモリのリソース割り当てが大きいので、あえてネスト環境よりも外側(物理ホストの vSphere 側)に配置。そのため、NSX を導入する vSphere 環境の vSphere Client からは、その2台の仮想マシンは見えません。
  • NSX 関連の仮想マシンの台数やリソース割り当ては、動作するのであれば推奨値以下 / サポート対象外構成でもよしとする。
    • NSX Manager は、仮想マシンのリソース予約を解除する。そして3ノード クラスタ構成ではなくシングル構成にする。
    • NSX Edge は 2台用意するが、最小のサイズ。スペックが必要な場合は 1台にして CPU / メモリを一時的に追加する。

 

2-5. ネットワーク構成

ネットワーク構成は、NSX 関連コンポーネントの理解と、UI / API の操作感の確認しやすさを優先しています。そもそも物理ホストが 1Gbps NIC x1 の構成なので、パフォーマンスや耐障害性の確認などはスコープ外と考えています。

  • NSX Edge は、あえてオーバーレイ ネットワークを構成する Compute クラスタ(ホスト トランスポート ノード)とは別のクラスタに配置。これは、ESXi のトランスポート ノードと、Edge トランスポート ノードの、ESXi の構成差異を体感しやすくするため。
  • 外部ネットワークと NSX ネットワークの境界になる Tier-0 ゲートウェイでは、スタティックルート(ルーティング プロトコルなし)で NSX のネットワークへ。
  • オーバーレイの TEP(GENEVE のトンネル エンド ポイント)では、Host / Edge で別の VLAN ID を付与。NSX の製品仕様の都合により、Edge TEP / ESXi TEP 間の通信でいちど物理ネットワークに抜けることでトラブル回避しやすくするため。
  • オーバーレイ ネットワークを利用する Compute クラスタでは、2ノードの ESXi を用意。これは ESXi ホストをまたぐ通信の確認をするため。
  • NFS データストア接続と vMotion ネットワークは、vmk0 の管理ネットワークを兼用。NSX とは直接的に関係しないため。
  • オーバーレイ ネットワークで利用する pNIC ポート(ESXi VM の vNIC)はあえて複数用意しておく。アップリンク プロファイルを理解しやすいように、vmnic1 + vmnic2 のように冗長構成っぽくする。
  • 「外部ネットワーク」のルータは、じつは自宅ラボに既設の Linux マシン。

 

3. NSX を導入する vSphere クラスタの構成

NSX を導入する vSphere 環境は、2つのクラスタを作成してあります。この環境は、ネスト構成にしてあります。

  • lab-cluster-21: NSX Edge 仮想マシンを稼働させる ESXi を配置
  • lab-cluster-22: NSX をインストールする ESXi を配置

 

この vSphere 環境は、コンポーネント配置のイメージ図では、赤枠のあたりです。

 

つづく。