ひきつづき、vSphere with Tanzu を体験するためのラボ環境構築をしていきます。これまでは、前提環境をととのえるための準備でしたが、今回は、スーパーバイザー クラスタ(のワークロード管理)を有効化します。
前回はこちら。
一連の投稿のまとめはこちら。
今回の内容です。
なお、この投稿では vSphere 7.0 を利用しています。vSphere 7.0 U1 以降では少し変更があります。
ワークロード管理の有効化
vSphere Client でクラスタの「ワークロード管理」を有効化することで、スーパーバイザー クラスタが作成されます。
vSphere Client で、「ワークロード管理」メニューを開きます。
「ワークロード管理」画面で、「有効化」をクリックします。
1. クラスタを選択
これまでの準備により「互換性あり」に vSphere Cluster が表示されるはずなので、「wcp-cluster-01」を選択して「次へ」をクリックします。
2. クラスタ設定
制御プレーンのサイズ(Supervisor Control Plane VM のスペック)を選択します。今回はハードウェア リソースの都合上「極小」を選択しています。
3. ネットワーク
ネットワークの設定をします。
管理ネットワークでは、次のようなパラメータを入力します。
- ネットワーク: DPortGroup-labmgmt-0010
- 開始 IP アドレス: 192.168.10.51
- サブネットマスク: 255.255.255.0(「開始 IP アドレス」のネットワークでのサブネット マスク)
- ゲートウェイ: 192.168.10.1(「開始 IP アドレス」のネットワークでのサブネット マスク)
- DNS サーバ: (カンマ区切りで DNS サーバを指定)
- DNS 検索ドメイン: go-lab.jp
- NTP サーバ: (カンマ区切りで DNS サーバを指定)
パラメータについての補足: 3. ネットワーク - 管理ネットワーク
ネットワーク
vCenter などと通信できる、管理ネットワークのポートグループを指定します。これは、Supervisor Control Plane VM の 1つめの vNIC に割り当てられます。
開始 IP アドレス
Supervisor Control Plane VM に付与される IP アドレスで、開始 IP アドレスから 5つ採番されます。
- Supervisor Control Plane VM の Floating IP アドレス。(開始 IP アドレスが使用される。今回は .51)
- Supervisor Control Plane VM 3台分の IP アドレス。今回は .52 ~ .54)
- アップグレード時の予約。(今回は .55)
パラメータを入力したら、画面を下にスクロールします。
ワークロード ネットワークでは、次のようなパラメータを入力しています。
- vSphere Distributed Switch: DSwitch
- Edge クラスタ: edge-cluster-01
- API サーバのエンドポイント FQDN: lab-wcp-01.go-lab.jp
- DNS サーバ: (カンマ区切りで DNS サーバを指定)
- ポッド CIDR: 10.244.0.0/21(デフォルトのまま)
- サービス CIDR: 10.96.0.0/24(デフォルトのまま)
- 入力方向 CIDR: 192.168.70.32/27
- 出力方向 CIDR: 192.168.70.64/27
パラメータについての補足: 3. ネットワーク - ワークロード ネットワーク
ポッド CIDR
Pod のネットワークが、このレンジから払い出されます。
サービス CIDR
Kubernetes 内部通信の ClusterIP で利用されます。
API サーバのエンドポイント FQDN
デプロイ後に Supervisor Control Plane VM の Floating IP にアクセスすると、ここで指定した名前が証明書の Subject Alternative Name に設定されています。
入力方向 CIDR
Tier-0 ゲートウェイの外部インターフェイス(Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定します。このレンジから、NSX ロードバランサによる VIP が払い出されます。
Supervisor Control Plane VM の VIP は、この CIDR の最初の IP アドレス(192.168.70.33)になります。
出力方向 CIDR
Tier-0 ゲートウェイの外部インターフェイス(Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定します。NSX にて Tier-1 ゲートウェイの SNAT アドレスとして利用されます。
ネットワーク関連のパラメータを入力したら、「次へ」をクリックします。
4. ストレージ
下記の 3つのデータストアを指定するため、仮想マシン ストレージ ポリシーを指定します。ここでは、以前の投稿 で作成した「vm-storage-policy-wcp」ポリシーを指定しています。
- 制御プレーン ノード(Supervisor Control Plane VM の VMDK を配置するデータストア)
- 短期ディスク(vSphere Pod で利用するデータストア)
- イメージ キャッシュ(コンテナ イメージのキャッシュ)
ポリシーを選択したら、「次へ」をクリックします。
ワークロード管理 有効化処理の様子
設定値を確認して「完了」をクリックすると、ワークロード管理の有効化が開始されます。
「クラスタ」タブで、構成ステータスが確認できます。開始直後に「最近のタスク」にいくつかエラー(リモートファイルのダウンロードでの 404 エラーなど)が表示されますが、自動的に再実行されて解消されるものもあるため、ひとまず無視します。
Supervisor Control Plane VM が自動的にデプロイされます。ちなみに、ESXi が 4台以上あるクラスタでも、Control Plane VM は 3台です。
有効化処理がうまくいかない場合は、vCenter に root ユーザでログインして、まず下記のログを確認してみるとよいと思います。
- ログファイル: /var/log/vmware/wcp/wcpsvc.log
しばらく(数十分 ~ 数時間)待つと、「構成ステータス」が「実行中」になります。
「制御プレーン ノード」の IP アドレスは、セットアップ処理中はまず「管理ネットワーク」の「開始 IP アドレス」で指定したアドレスになりますが、最終的に「入力方向 CIDR」で指定したレンジの IP アドレスになります。
「現在のバージョン」には、スーパーバイザー クラスタの Kubernetes バージョンが表示されています。
これで wcp-cluster-01 クラスタが、スーパーバイザー クラスタになりました。
スーパーバイザー名前空間の作成
vSphere Pod や Tanzu Kubernetes クラスタを作成する、「スーパーバイザー名前空間」を作成します。これは、Kubernetes の名前空間(Namespace)にあたるものです。
「ワークロード管理」メニューの「名前空間」タブを開くと、「名前空間の作成」が表示されるので、クリックします。
クラスタを選択して、名前空間の名前(ここでは lab-ns-01)を入力して「作成」をクリックします。
名前空間が作成されました。
スーパーバイザー クラスタのネットワーク構成が成功しているか確認するため、「ステータス」→「CLI ツールへのリンク」にある、「開く」をクリックします。
「Kubernetes CLI Tools」という、専用 kubectl のダウンロード ページが表示されるはずです。
これで、vSphere with Tanzu を体験するためのラボ環境が構築できました。このページが表示されていない場合は、ワークロード管理の有効化が成功していても NSX-T や物理ネットワークなどの構成がうまくできていない可能性があります。
ちなみに名前空間は、スーパーバイザー クラスタの右クリック →「新規名前空間」でも作成できます。
以上、vSphere 7.0 + NSX-T 3.0 でのスーパーバイザー クラスタ環境構築でした。
つづく。