vm.gowatana.jp

NEOにほんごVMware(仮)

vSphere with Tanzu 8.0 U2 ラボ環境構築。Part-10: ワークロード管理の有効化

vSphere 8.0 U2 で、vSphere with Tanzu の自宅ラボ環境を構築していきます。今回は、ワークロード管理を有効化して、スーパーバイザーを構築します。

 

今回の内容です。

 

ドキュメントでは、下記のあたりが参考になります。

 

ラボ構成のイメージ

今回は、ワークロード管理を有効化して、1-Zone のスーパーバイザーを構築します。制御プレーン 仮想マシン(Supervisor Control Plane VM)が3台が自動展開され、vSphere に Kubernetes の機能が組み込まれます。

 

ESXi ホストのメンテナンス モード解除

ワークロード管理を有効化するクラスタで、配下の ESXi ホストのメンテナンス モードを解除しておきます。

クラスタの「ホスト」タブで ESXi ホストをすべて選択して、右クリック →「メンテナンス モード」→「メンテナンス モードの終了」をクリックします。

 

確認メッセージが表示されるので、「はい」をクリックします。

 

ワークロード管理を有効化する前のクラスタでの、リソースの様子です。

 

ワークロード管理の有効化(スーパーバイザーの構築)

vSphere Client で「ワークロード管理」を有効化すると、スーパーバイザーが構築されます。

 

「ワークロード管理」メニューを開きます。

評価モードで(ライセンス キーを入力しないで)利用するには、初回のみ利用者の情報を入力する必要があります。

 

「開始する」をクリックします。

 

1. vCenter Server とネットワーク

ネットワーク スタックを選択して、「次へ」をクリックします。

  • ネットワーク スタックの選択: NSX

 

2. スーパーバイザーの配置

今回は 1-Zone 構成なので、「クラスタのデプロイ」タブを選択します。

スーパーバイザーの名前と、ワークロード管理を有効化する(スーパーバイザーにする)クラスタを指定します。vSphere 7 のころはスーパーバイザーはクラスタと同名となっていましたが、vSphere 8 からは独立した名前を指定できるようになりました。

今回は 事前に vSphere Zone を作成してありますが、未作成の場合は、この画面で作成できます。

  • スーパーバイザー名: sv-31
  • クラスタ名: lab-cluster-31
  • vSphere Zone 名: zone-1

 

3. ストレージ

Supervisor Control Plane VM のデータストア配置を指定するための仮想マシン ストレージ ポリシーを選択して、「次へ」をクリックします。

  • 制御プレーン ストレージ ポリシー: vwt-nfs-policy
  • 短期ディスク ストレージ ポリシー: vwt-nfs-policy
  • イメージ キャッシュ ストレージ ポリシー: vwt-nfs-policy

 

ちなみに、それぞれ下記の用途で利用されます。

  • 制御プレーン ノード → Supervisor Control Plane VM の VMDK を配置するデータストア
  • 短期ディスク → vSphere Pod で利用するデータストア
  • イメージ キャッシュ → コンテナ イメージのキャッシュ

 

4. 管理ネットワーク

Supervisor Control Plane VM(3台)の管理ネットワークを設定して、「次へ」をクリックします。このラボでは、下記のように設定しています。

  • ネットワーク モード: 静的
  • ネットワーク: dvpg-mgmt
  • 開始 IP アドレス: 192.168.10.34(5つの IP アドレスが予約されるので ~ .38)
  • サブネット マスク: 255.255.255.0
  • ゲートウェイ: 192.168.10.1
  • DNS サーバ: 192.168.1.101, 192.168.1.102
  • DNS 検索ドメイン: go-lab.jp
  • NTP サーバ: 192.168.1.101, 192.168.1.102

ここで指定する「開始 IP アドレス」は、Supervisor Control Plane VM に付与される IP アドレスで、開始 IP アドレスから 5つが採番されます。IP アドレスの割り当ては、かならずしも仮想マシン名末尾の番号「(1) ~」とは一致せず、デプロイ処理が完了した順に割り当てられるようです。

  1. Supervisor Control Plane VM の Floating IP アドレス。今回は .34
  2. Supervisor Control Plane VM #1。今回は .35
  3. Supervisor Control Plane VM #2。今回は .36
  4. Supervisor Control Plane VM #3。今回は .37
  5. アップグレード時の予約。今回は .38

 

5. ワークロード ネットワーク

スーパーバイザーの Kubernetes クラスタとしてのネットワーク設定です。このラボでは、下記のパラメータを入力して「次へ」をクリックします。

  • vSphere Distributed Switch: DSwitch-31
  • DNS サーバ: 192.168.1.101,192.168.1.102
  • Edge クラスタ: edge-cluster-31
  • Tier-0 ゲートウェイ: t0-gw-31
  • NAT モード: 有効 ※デフォルトのまま
  • サブネット プリフィックス: /28 ※デフォルトのまま
  • 名前空間ネットワーク: 10.244.0.0/20 ※デフォルトのまま
  • 入力方向 CIDR: 192.168.131.32/27
  • 出力方向 CIDR: 192.168.131.64/27

 

ちなみに、ここで入力するアドレスは下記のように利用されます。

  • 名前空間ネットワーク
    • Supervisor Control Plane VM、vSphere Pod、TKGS クラスタ ノード仮想マシンの接続されるネットワークのアドレスです。
    • 自動作成される NSX オーバーレイ セグメントに、レンジから「サブネット プレフィックス」単位(今回は /28)でネットワークが払い出されます。
  • サービス CIDR
    • Kubernetes クラスタ内部通信で使用される、ClusterIP のアドレス採番で使用されるレンジです。
    • NSX LB / NSX ALB ではなく、NSX DLB(分散ロード バランサー)で、VIP が提供されます。
  • 入力方向 CIDR
    • Tier-0 ゲートウェイの外部インターフェイス(Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定します。
    • このレンジから、NSX LB または NSX ALB による VIP が払い出されます。
    • この CIDR の1番目の IP アドレスは、CSI Controller の VIP(192.168.131.33)になります。
    • この CIDR の2番目の IP アドレスは、Kube API Server VIP(192.168.131.34)になります。kubectl のダウンロード ページもこのアドレスです。
  • 出力方向 CIDR
    • スーパーバイザーで展開される Pod(コンテナ)などから外部にアクセスするための SNAT アドレスです。
    • NSX Tier-1 ゲートウェイに、SNAT アドレスとして設定されます。
    • Tier-0 ゲートウェイの外部インターフェイス(NSX Edge のアップリンク)と同セグメントから、/27 以上のレンジを指定します。

 

6. 確認

画面のタイトルは「6. 確認」となっていますが、Supervisor Control Plane VM のサイズなどを指定します。

  • スーパーバイザー制御プレーンのサイズ: 小(4 vCPU、16GB RAM、32GB ストレージ)
  • API サーバの DNS 名: 空欄のまま
  • 設定のエクスポート: ON

そして「完了」をクリックすると、ワークロード管理を有効化する処理が開始します。

 

しばらく待ちます。

開始直後にタスク情報などを確認すると、いくつかエラー(リモートファイルのダウンロードでの 404 エラーなど)が表示されますが、自動的に再実行されて解消されるものもあるため、ひとまず無視します。

 

有効化処理がうまくいかない場合は、vCenter Server に root ユーザでログインして、まず下記のログを確認してみるとよいと思います。

  • ログファイル: /var/log/vmware/wcp/wcpsvc.log

 

処理が完了すると、「構成ステータス」が「実行中」になります。

「制御プレーン ノードの IP アドレス」は、セットアップ処理中はまず「管理ネットワーク」の「開始 IP アドレス」で指定したアドレスになりますが、最終的に「入力方向 CIDR」で指定したレンジの IP アドレスに変更されます。

 

制御プレーン ノードの IP アドレスに Web ブラウザでアクセスして、証明書エラーを無視して進むと、Kubernetes CLI Tools のダウンロード ページが表示されます。

このページにアクセスできない場合は、ワークロード管理の有効化が成功していても、物理ネットワークや NSX オーバーレイ ネットワークなどの設定が不足していたり、構成がうまくできていない可能性があります。

 

ワークロード管理が有効化されたクラスタの様子

ワークロード管理が有効化され、スーパーバイザーが組み込まれたクラスタには、「Namespaces」リソースプールが作成され、3台の Supervisor Control Plane VM が展開されます。ちなみに、ESXi ホストが 4台以上あるクラスタでも 3台です。

 

クラスタの「サマリ」タブには、スーパーバイザーへのリンクが表示されます。

 

ちなみに NSX によるネットワークは、事前作成した Tier-0 ゲートウェイ(t0-gw-31)より下の部分に、下記のようなトポロジが自動作成されます。

 

つづく。