Как разворачивать Nutanix Community Edition 2.0 на VMware vSphere 8 в 2023 году?

Не так давно вышел релиз Nutanix Community Edition 2.0 (CE 2.0), который основан на базе Nutanix AOS 6.5 – самой актуальной LTS версии на момент написания статьи.

Далее мы внимательно посмотрим на процедуру развертывания кластера Nutanix CE 2.0 из трех узлов в инфраструктуре VMware vSphere 8.

До того, как мы приступим к развертыванию и настройке, давайте посмотрим на основные существующие требования и ограничения.

Процессор:

Процессоры с поддержкой Intel VT-x, либо процессоры семейства AMD с архитектурой Zen Micro и выше.

Минимальный процессор должен иметь 4 ядра, из которых 2 выделяется CVM.

ОЗУ:

Минимум 20GB. Но, чем больше функционала и виртуальных машин планируется использовать – тем больше ОЗУ может потребоваться. Для использования большинства функций AOS рекомендуется 32GB и выше.

Жесткие диски:

Максимальное количество – 4 HDD/SSD на узел, но отмечается, что некоторые пользователи сообщали об успешном использовании и большего количества дисков.

Cold Tier – 500GB и выше;
Hot Tier – 200GB и выше – SSD.

Так же необходим отдельный диск объемом от 32GB на который будет установлен гипервизор. Это может быть, как USB, так и SATA DOM, M.2 SSD и т.п.

Рекомендуются надежные диски, способные выдерживать интенсивные нагрузки.

Кластер:

Кластер может состоять из 1 узла (Single-Node), а также из 3 или 4 узлов. Максимальный размер кластера – 4 узла.

Обратите внимание, что, если на этапе инсталляции был выбран Single-Node кластер, расширить его в дальнейшем до трех узлов не получится.

Гипервизор ESXi официально не поддерживается.

Прочие требования:

1. Пароль администратора обязательно должен быть изменен при первом входе в Prism;

2. При первом входе в Prism необходимо будет указать аккаунт с ранее пройденной регистрацией в .NEXT (об этом далее);

3. Должны быть открыты исходящие порты 80 и 8443 для работы Pulse, который отправляет статистику в Nutanix, такую как возникающие в кластере ошибки, и статику использования.

Когда мы разобрались с требованиями приступим к установке.

В первую очередь необходимо зарегистрироваться по ссылке и создать учетную запись.

Далее, на портале Next Nutanix, скачиваем ISO файл phoenix-ce2.0-fraser-6.5.2-stable-fnd-5.3.4-x86_64.iso, содержащий установочные файлы CE 2.0.

Когда все установочные файлы загружены. Можно заняться подготовкой виртуальной инфраструктуры и машин.

Прежде всего, необходимо заранее определиться с сетью и IP-адресацией. Для развертывания кластера из 3 узлов, минимально необходимое количество адресов – 7.

3 адреса будут задействованы под гипервизор AHV;
3 адреса будут задействованы для CVM;
1 адрес для Cluster IP.

Так же заранее стоит позаботиться об IP адресах для Data Services IP и для Prism Central, если планируется использовать в дальнейшем.

В виртуальной инфраструктуре первым шагом необходимо создать сеть, к которой будут подключены виртуальные машины Nutanix CE 2.0. Основной момент, которому нужно уделить внимание – это перевод Promiscuous mode, Mac address changes и Forged transmits в режим Accept:

Сеть может быть создана как на стандартном свитче, так и на распределенном. В моем примере используется распределенный свитч.

Далее займемся подготовкой трех виртуальных машин. Я не буду описывать весь процесс создания VM, но заострю внимание на некоторых важных моментах.

В качестве Guest OS я выбираю Linux – CentOS 7 (64-Bit):

На этапе Customize hardware, выделяем необходимое количество процессорных ресурсов и оперативной памяти. Не забываем выбрать нужную сеть.

А также добавляем 3 диска:

В моем случае Hard Disk 1 – для установки гипервизора;
Hard Disk 2 – Hot Tier (быстрое хранилище);
Hard Disk 3 – Cold Tier (медленное хранилище).

Разворачиваем вкладку CPU и включаем Hardware virtualization – Expose hardware assisted virtualization to the guest OS:

Перемещаемся из вкладки Virtual Hardware на вкладку Advanced Parameters и добавляем параметр disk.EnableUUID = TRUE:

Итоговый результат добавленного параметра выглядит следующим образом:

Необходимость в данном параметре я описал в статье вышедшей ранее.

На этом процесс подготовки виртуальной машины закончен. В итоге должно получиться 3 одинаково сконфигурированных VM:

Запускаем виртуальные машины, подключаем скачанный ранее ISO файл, после чего ожидаемо должен загрузиться установщик Nutanix CE:

На первом этапе установки необходимо обратить внимание на следующие моменты:

У дисков должно корректно отображается поле Serial. Если это не так, следует убедиться в наличии параметра disk.EnableUUID в значении True у VM.

Так же напротив дисков можно увидеть метки H, C, D.
H – диск, на который будет установлен гипервизор;
C – диск для CVM, Hot Tier, обычно более быстрый;
D – диск для данных.

Изначально наиболее объемный выбирается для CVM. Изменить это достаточно просто. С помощью кнопки Tab можно переместиться в раздел дисков и клавишами h, c, d выбрать нужные диски.

Так же с помощью Tab перемещаемся ниже и задаем IP адреса AHV, CVM:

Таким образом в примере выше я выбрал диск на 214GB для CVM (Буква C в поле Use) и диск на 429GB для Extent Store (Буква D, соответственно). Так же я задал IP адреса гипервизора и CVM, маску и шлюз. Обратите внимание, что гипервизор и CVM должны располагаться в одной сети.

Поскольку мы создаем кластер из трех узлов, отметку «Create single-node cluster?» ставить не нужно.

Переходим на следующий экран, где нужно ознакомиться с лицензионным соглашением и принять его:

По нажатию на Start начнется инсталляция, однако, если лицензионное сообщение не было дочитано до конца, можно встретить соответствующую ошибку:

По нажатию enter, мы вернемся на шаг назад и ознакомимся с лицензионным соглашением до конца:

Теперь процедура установки будет запущена:

Дожидаемся окончания, отключаем ISO образ и нажимаем «Y» для перезагрузки узла:

Аналогичным образом, устанавливаются два оставшихся сервера. Как итоговый результат работы, мы должны получить 3 сервера с установленным гипервизором Nutanix AHV и работающими на них CVM.

И AHV и CVM должны отвечать на ping, если они не отвечают, следует проверить корректность настройки сети в виртуальном свитче, а так же состояние CVM на хосте.

Сделать это можно подключившись к гипервизору с учетными данными root / nutanix/4u, а затем проверить запущенные виртуальные машины с помощью команды virsh list:

Ожидается, что на каждом из трех узлов должна работать одна виртуальная машина CVM.

При необходимости дальнейшего траблшутинга, можно подключиться к CVM непосредственно с гипервизора по SSH:

ssh nutanix@192.168.5.254

Пароль в данном случае аналогичный – nutanix/4u.

Создание и конфигурация кластера.

После того, как все виртуальные машины готовы, установка CE 2.0 проведена, а гипервизоры и CVM доступны из сети. Можно приступить к конфигурации кластера.

Выполнить конфигурацию кластера можно подключившись к любой из CVM по SSH. Логин: nutanix, пароль: nutanix/4u

Запустим процедуру создания кластера:

nutanix@CVM:~$ cluster -s 192.168.22.214,192.168.22.215,192.168.22.216 create

Через запятую указываются IP-адреса CVM, которые должны стать членами кластера.

Дожидаемся окончания процедуры формирования кластера и запуска сервисов. Как результат должно быть выведено что-то похожее на:

INFO cluster:2875 Success!

Проверим статус кластера командой cluster status:

       CVM: 192.168.22.214 Up
                                Zeus   UP       [12963, 13052, 13053, 13123, 13139, 13157]
                           Scavenger   UP       [15569, 15671, 15672, 15673]
                              Xmount   UP       [15566, 15641, 15642, 15822]
                    SysStatCollector   UP       [19469, 19547, 19548, 19549]
                           IkatProxy   UP       [20154, 20223, 20224, 20225]
                    IkatControlPlane   UP       [20443, 20515, 20516, 20517]
                       SSLTerminator   UP       [20463, 20571, 20572]
                      SecureFileSync   UP       [20484, 20621, 20622, 20623]
                              Medusa   UP       [20879, 20994, 20995, 21014, 21261]
                  DynamicRingChanger   UP       [21518, 21576, 21577, 21589]
                              Pithos   UP       [21540, 21669, 21670, 21680]
                          InsightsDB   UP       [21599, 21821, 21822, 21913]
                              Athena   UP       [21672, 21998, 21999, 22000]
                             Mercury   UP       [30468, 30532, 30533, 30539]
                              Mantle   UP       [22134, 22355, 22356, 22366]
                          VipMonitor   UP       [24211, 24212, 24213, 24214, 24219]
                            Stargate   UP       [22651, 22699, 22700, 22711, 22712]
                InsightsDataTransfer   UP       [22937, 23046, 23047, 23050, 23051, 23052, 23053, 23054, 23055]
                               Ergon   UP       [22971, 23184, 23185, 23758]
                             GoErgon   UP       [22996, 23213, 23214, 23237]
                             Cerebro   UP       [23267, 23405, 23406, 23490]
                             Chronos   UP       [23328, 23471, 23472, 23476]
                             Curator   UP       [23424, 23582, 23583, 23626]
                               Prism   UP       [23616, 23839, 23840, 23856]
                                Hera   UP       [23722, 23991, 23992, 23993]
                                 CIM   UP       [23802, 24074, 24075, 24077, 24088]
                        AlertManager   UP       [24034, 24580, 24581, 24613]
                            Arithmos   UP       [24471, 24825, 24826, 24849]
                             Catalog   UP       [24952, 25180, 25181, 25182, 25193]
                           Acropolis   UP       [25403, 25531, 25532, 29238]
                               Uhura   UP       [25450, 25589, 25590, 28171]
                   NutanixGuestTools   UP       [25546, 25670, 25671, 25677, 25694]
                          MinervaCVM   UP       [26988, 27090, 27091, 27092, 27276]
                       ClusterConfig   UP       [27009, 27184, 27185, 27186]
                         APLOSEngine   UP       [27094, 27245, 27246, 27247]
                               APLOS   UP       [28337, 28447, 28448, 28450]
                     PlacementSolver   UP       [28381, 28524, 28525, 28526]
                               Lazan   UP       [28486, 28674, 28675, 28676]
                             Polaris   UP       [28565, 28845, 28846, 28876]
                              Delphi   UP       [28729, 28975, 28976, 28977]
                            Security   UP       [28981, 29352, 29353, 29354]
                                Flow   UP       [29435, 29585, 29586, 29587]
                             Anduril   UP       [29503, 29634, 29635, 29636]
                               XTrim   UP       [29650, 29713, 29714, 29715]
                       ClusterHealth   UP       [27149, 27173, 27174, 27510, 27531, 27532, 27533, 27535, 27536, 27537, 27544, 27546, 27554, 27558, 27564, 27586, 27597, 27660, 27663, 29670, 29801, 29861, 29862, 29864, 29867, 29957, 29958, 29959, 29961, 29962, 29963, 29964, 29968, 29969, 29970, 29973, 29974, 29975, 30111, 30112, 30113, 30114, 30116, 30117]

Успешным результатом будет сообщение о том, что на всех CVM работают все службы.

Если не все службы запущены, попытаться запустить их можно командой cluster start.

Когда кластер создан, выполним некоторые базовые настройки.

Зададим название кластера:

nutanix@CVM:~$ ncli cluster edit-params new-name=ntnx-ce20
    Cluster Name              : ntnx-ce20

Добавим свой DNS сервер:

nutanix@CVM:~$ ncli cluster add-to-name-servers servers="192.168.22.201"
    Name Servers              : 192.168.22.201, 8.8.8.8, 8.8.4.4

Добавим NTP сервера:

nutanix@CVM:~$ ncli cluster add-to-ntp-servers servers="192.168.23.3,192.168.23.4,192.168.23.5"
    NTP Servers               : 1.pool.ntp.org, 0.pool.ntp.org, 192.168.23.3, 192.168.23.4, 192.168.23.5

Как можно заметить, в списке присутствуют внешние NTP-пулы, которые я хотел бы удалить:

nutanix@CVM:~$ ncli cluster remove-from-ntp-servers servers="1.pool.ntp.org,0.pool.ntp.org"
    NTP Servers               : 192.168.23.3, 192.168.23.4, 192.168.23.5

Зададим часовой пояс:

nutanix@CVM:~$ ncli cluster set-timezone timezone=Asia/Almaty
Daily/weekly/monthly DR schedules are impacted by cluster timezone change. Please remove existing daily/weekly/monthly DR schedules before proceeding and reconfigure those schedules later to follow the new timezone. Do you want to continue.(y/N)?: y
Please reboot the CVM or restart all services on the cluster so that logs are timestamped with the new Timezone.
    Timezone                  : Asia/Almaty

Поскольку выход в интернет в данном случае необходим, но прямого доступа нет, я добавлю прокси:

nutanix@CVM:~$ ncli http-proxy add name=vmik-proxy address=192.168.22.201 port=3128 proxy-types=http,https
    Status                    : true

Последним шагом задаем Cluster IP, по которому будет доступен Web-интерфейс Prism Element:

nutanix@CVM:~$ ncli cluster set-external-ip-address external-ip-address="192.168.22.210"
    External IP address       : 192.168.22.210

На этом конфигурация кластера завершена. Открываем веб браузер и переходим по ранее заданному Cluster IP адресу, указав порт 9440. Например, https://192.168.22.210:9440

Добро пожаловать в интерфейс Prism Element:

Авторизуемся учетной записью admin с паролем nutanix/4u, после чего будет предложено сменить пароль:

Авторизуемся с новым паролем. Теперь от нас потребуется указать учетную запись .NEXT, которую мы использовали ранее при процедуре регистрации:

Если учетные данные указаны правильно и в кластере присутствует доступ в интернет, все должно быть в порядке:

Кластер Nutanix CE 2.0 из трех узлов готов к использованию:

Loading

7 thoughts on “Как разворачивать Nutanix Community Edition 2.0 на VMware vSphere 8 в 2023 году?”

  1. Thanks for the detailed step-by-step guide. I followed it but got this error:
    WARNING MainThread genesis_utils.py:1580 Failed to reach a node where Genesis is up. Ensure Genesis is running on all CVMs. Retrying…(Hit Ctrl-C to abort)

    1. Hello. It really depends.
      I believe that you faced this error during the cluster creation step.
      Usually, you just need to wait and not rush after deploying all of your nodes. 
      It depends on the underlying hardware (especially storage) and it can affect the speed of CVM’s processes are starting.

      Also, please make sure that your network is fine and that you can ping all of your hosts, CVMs.

      Sometimes reinstalling the node can help.

      1. Hello, thanks for your response.
        I have been able to deploy a single node cluster. but not able to deploy 3-node cluster.
        Hardware is HP DL360 G9. Pretty decent. I previously used it for Nutanix CE 5.18 and this worked fine. Storage is good too, 1 x SSD & several HDDs
        I wonder if this is to do with ESXi 7?
        thanks
        Ike

  2. Hello, after a few tries, I finally got the 3-node cluster up and running.
    Had to to genesis restart on all 3 cvms.
    Then cluster start a few times before all services came up.

    Thanks.
    Ike

  3. Приветствую!
    Судя по адресам в статье, каждая нода имеет по 2 адреса? Откуда тогда адрес 192.168.5.254 если все адресак в одно сети должны быть?

    1. Добрый день.
      Это внутренний адрес CVM, он доступен только с гипервизора, на котором эта CVM работает.

Leave a Reply

Your email address will not be published. Required fields are marked *