Как разворачивать Nutanix Community Edition 2.0 на VMware vSphere 8 в 2023 году?

Не так давно вышел релиз Nutanix Community Edition 2.0 (CE 2.0), который основан на базе Nutanix AOS 6.5 – самой актуальной LTS версии на момент написания статьи.

Далее мы внимательно посмотрим на процедуру развертывания кластера Nutanix CE 2.0 из трех узлов в инфраструктуре VMware vSphere 8.

До того, как мы приступим к развертыванию и настройке, давайте посмотрим на основные существующие требования и ограничения.

Процессор:

Процессоры с поддержкой Intel VT-x, либо процессоры семейства AMD с архитектурой Zen Micro и выше.

Минимальный процессор должен иметь 4 ядра, из которых 2 выделяется CVM.

ОЗУ:

Минимум 20GB. Но, чем больше функционала и виртуальных машин планируется использовать – тем больше ОЗУ может потребоваться. Для использования большинства функций AOS рекомендуется 32GB и выше.

Жесткие диски:

Максимальное количество – 4 HDD/SSD на узел, но отмечается, что некоторые пользователи сообщали об успешном использовании и большего количества дисков.

Cold Tier – 500GB и выше;
Hot Tier – 200GB и выше – SSD.

Так же необходим отдельный диск объемом от 32GB на который будет установлен гипервизор. Это может быть, как USB, так и SATA DOM, M.2 SSD и т.п.

Рекомендуются надежные диски, способные выдерживать интенсивные нагрузки.

Кластер:

Кластер может состоять из 1 узла (Single-Node), а также из 3 или 4 узлов. Максимальный размер кластера – 4 узла.

Обратите внимание, что, если на этапе инсталляции был выбран Single-Node кластер, расширить его в дальнейшем до трех узлов не получится.

Гипервизор ESXi официально не поддерживается.

Прочие требования:

1. Пароль администратора обязательно должен быть изменен при первом входе в Prism;

2. При первом входе в Prism необходимо будет указать аккаунт с ранее пройденной регистрацией в .NEXT (об этом далее);

3. Должны быть открыты исходящие порты 80 и 8443 для работы Pulse, который отправляет статистику в Nutanix, такую как возникающие в кластере ошибки, и статику использования.

Когда мы разобрались с требованиями приступим к установке.

В первую очередь необходимо зарегистрироваться по ссылке и создать учетную запись.

Далее, на портале Next Nutanix, скачиваем ISO файл phoenix-ce2.0-fraser-6.5.2-stable-fnd-5.3.4-x86_64.iso, содержащий установочные файлы CE 2.0.

Когда все установочные файлы загружены. Можно заняться подготовкой виртуальной инфраструктуры и машин.

Прежде всего, необходимо заранее определиться с сетью и IP-адресацией. Для развертывания кластера из 3 узлов, минимально необходимое количество адресов – 7.

3 адреса будут задействованы под гипервизор AHV;
3 адреса будут задействованы для CVM;
1 адрес для Cluster IP.

Так же заранее стоит позаботиться об IP адресах для Data Services IP и для Prism Central, если планируется использовать в дальнейшем.

В виртуальной инфраструктуре первым шагом необходимо создать сеть, к которой будут подключены виртуальные машины Nutanix CE 2.0. Основной момент, которому нужно уделить внимание – это перевод Promiscuous mode, Mac address changes и Forged transmits в режим Accept:

Сеть может быть создана как на стандартном свитче, так и на распределенном. В моем примере используется распределенный свитч.

Далее займемся подготовкой трех виртуальных машин. Я не буду описывать весь процесс создания VM, но заострю внимание на некоторых важных моментах.

В качестве Guest OS я выбираю Linux – CentOS 7 (64-Bit):

На этапе Customize hardware, выделяем необходимое количество процессорных ресурсов и оперативной памяти. Не забываем выбрать нужную сеть.

А также добавляем 3 диска:

В моем случае Hard Disk 1 – для установки гипервизора;
Hard Disk 2 – Hot Tier (быстрое хранилище);
Hard Disk 3 – Cold Tier (медленное хранилище).

Разворачиваем вкладку CPU и включаем Hardware virtualization – Expose hardware assisted virtualization to the guest OS:

Перемещаемся из вкладки Virtual Hardware на вкладку Advanced Parameters и добавляем параметр disk.EnableUUID = TRUE:

Итоговый результат добавленного параметра выглядит следующим образом:

Необходимость в данном параметре я описал в статье вышедшей ранее.

На этом процесс подготовки виртуальной машины закончен. В итоге должно получиться 3 одинаково сконфигурированных VM:

Запускаем виртуальные машины, подключаем скачанный ранее ISO файл, после чего ожидаемо должен загрузиться установщик Nutanix CE:

На первом этапе установки необходимо обратить внимание на следующие моменты:

У дисков должно корректно отображается поле Serial. Если это не так, следует убедиться в наличии параметра disk.EnableUUID в значении True у VM.

Так же напротив дисков можно увидеть метки H, C, D.
H – диск, на который будет установлен гипервизор;
C – диск для CVM, Hot Tier, обычно более быстрый;
D – диск для данных.

Изначально наиболее объемный выбирается для CVM. Изменить это достаточно просто. С помощью кнопки Tab можно переместиться в раздел дисков и клавишами h, c, d выбрать нужные диски.

Так же с помощью Tab перемещаемся ниже и задаем IP адреса AHV, CVM:

Таким образом в примере выше я выбрал диск на 214GB для CVM (Буква C в поле Use) и диск на 429GB для Extent Store (Буква D, соответственно). Так же я задал IP адреса гипервизора и CVM, маску и шлюз. Обратите внимание, что гипервизор и CVM должны располагаться в одной сети.

Поскольку мы создаем кластер из трех узлов, отметку «Create single-node cluster?» ставить не нужно.

Переходим на следующий экран, где нужно ознакомиться с лицензионным соглашением и принять его:

По нажатию на Start начнется инсталляция, однако, если лицензионное сообщение не было дочитано до конца, можно встретить соответствующую ошибку:

По нажатию enter, мы вернемся на шаг назад и ознакомимся с лицензионным соглашением до конца:

Теперь процедура установки будет запущена:

Дожидаемся окончания, отключаем ISO образ и нажимаем «Y» для перезагрузки узла:

Аналогичным образом, устанавливаются два оставшихся сервера. Как итоговый результат работы, мы должны получить 3 сервера с установленным гипервизором Nutanix AHV и работающими на них CVM.

И AHV и CVM должны отвечать на ping, если они не отвечают, следует проверить корректность настройки сети в виртуальном свитче, а так же состояние CVM на хосте.

Сделать это можно подключившись к гипервизору с учетными данными root / nutanix/4u, а затем проверить запущенные виртуальные машины с помощью команды virsh list:

Ожидается, что на каждом из трех узлов должна работать одна виртуальная машина CVM.

При необходимости дальнейшего траблшутинга, можно подключиться к CVM непосредственно с гипервизора по SSH:

ssh nutanix@192.168.5.254

Пароль в данном случае аналогичный – nutanix/4u.

Создание и конфигурация кластера.

После того, как все виртуальные машины готовы, установка CE 2.0 проведена, а гипервизоры и CVM доступны из сети. Можно приступить к конфигурации кластера.

Выполнить конфигурацию кластера можно подключившись к любой из CVM по SSH. Логин: nutanix, пароль: nutanix/4u

Запустим процедуру создания кластера:

nutanix@CVM:~$ cluster -s 192.168.22.214,192.168.22.215,192.168.22.216 create

Через запятую указываются IP-адреса CVM, которые должны стать членами кластера.

Дожидаемся окончания процедуры формирования кластера и запуска сервисов. Как результат должно быть выведено что-то похожее на:

INFO cluster:2875 Success!

Проверим статус кластера командой cluster status:

       CVM: 192.168.22.214 Up
                                Zeus   UP       [12963, 13052, 13053, 13123, 13139, 13157]
                           Scavenger   UP       [15569, 15671, 15672, 15673]
                              Xmount   UP       [15566, 15641, 15642, 15822]
                    SysStatCollector   UP       [19469, 19547, 19548, 19549]
                           IkatProxy   UP       [20154, 20223, 20224, 20225]
                    IkatControlPlane   UP       [20443, 20515, 20516, 20517]
                       SSLTerminator   UP       [20463, 20571, 20572]
                      SecureFileSync   UP       [20484, 20621, 20622, 20623]
                              Medusa   UP       [20879, 20994, 20995, 21014, 21261]
                  DynamicRingChanger   UP       [21518, 21576, 21577, 21589]
                              Pithos   UP       [21540, 21669, 21670, 21680]
                          InsightsDB   UP       [21599, 21821, 21822, 21913]
                              Athena   UP       [21672, 21998, 21999, 22000]
                             Mercury   UP       [30468, 30532, 30533, 30539]
                              Mantle   UP       [22134, 22355, 22356, 22366]
                          VipMonitor   UP       [24211, 24212, 24213, 24214, 24219]
                            Stargate   UP       [22651, 22699, 22700, 22711, 22712]
                InsightsDataTransfer   UP       [22937, 23046, 23047, 23050, 23051, 23052, 23053, 23054, 23055]
                               Ergon   UP       [22971, 23184, 23185, 23758]
                             GoErgon   UP       [22996, 23213, 23214, 23237]
                             Cerebro   UP       [23267, 23405, 23406, 23490]
                             Chronos   UP       [23328, 23471, 23472, 23476]
                             Curator   UP       [23424, 23582, 23583, 23626]
                               Prism   UP       [23616, 23839, 23840, 23856]
                                Hera   UP       [23722, 23991, 23992, 23993]
                                 CIM   UP       [23802, 24074, 24075, 24077, 24088]
                        AlertManager   UP       [24034, 24580, 24581, 24613]
                            Arithmos   UP       [24471, 24825, 24826, 24849]
                             Catalog   UP       [24952, 25180, 25181, 25182, 25193]
                           Acropolis   UP       [25403, 25531, 25532, 29238]
                               Uhura   UP       [25450, 25589, 25590, 28171]
                   NutanixGuestTools   UP       [25546, 25670, 25671, 25677, 25694]
                          MinervaCVM   UP       [26988, 27090, 27091, 27092, 27276]
                       ClusterConfig   UP       [27009, 27184, 27185, 27186]
                         APLOSEngine   UP       [27094, 27245, 27246, 27247]
                               APLOS   UP       [28337, 28447, 28448, 28450]
                     PlacementSolver   UP       [28381, 28524, 28525, 28526]
                               Lazan   UP       [28486, 28674, 28675, 28676]
                             Polaris   UP       [28565, 28845, 28846, 28876]
                              Delphi   UP       [28729, 28975, 28976, 28977]
                            Security   UP       [28981, 29352, 29353, 29354]
                                Flow   UP       [29435, 29585, 29586, 29587]
                             Anduril   UP       [29503, 29634, 29635, 29636]
                               XTrim   UP       [29650, 29713, 29714, 29715]
                       ClusterHealth   UP       [27149, 27173, 27174, 27510, 27531, 27532, 27533, 27535, 27536, 27537, 27544, 27546, 27554, 27558, 27564, 27586, 27597, 27660, 27663, 29670, 29801, 29861, 29862, 29864, 29867, 29957, 29958, 29959, 29961, 29962, 29963, 29964, 29968, 29969, 29970, 29973, 29974, 29975, 30111, 30112, 30113, 30114, 30116, 30117]

Успешным результатом будет сообщение о том, что на всех CVM работают все службы.

Если не все службы запущены, попытаться запустить их можно командой cluster start.

Когда кластер создан, выполним некоторые базовые настройки.

Зададим название кластера:

nutanix@CVM:~$ ncli cluster edit-params new-name=ntnx-ce20
    Cluster Name              : ntnx-ce20

Добавим свой DNS сервер:

nutanix@CVM:~$ ncli cluster add-to-name-servers servers="192.168.22.201"
    Name Servers              : 192.168.22.201, 8.8.8.8, 8.8.4.4

Добавим NTP сервера:

nutanix@CVM:~$ ncli cluster add-to-ntp-servers servers="192.168.23.3,192.168.23.4,192.168.23.5"
    NTP Servers               : 1.pool.ntp.org, 0.pool.ntp.org, 192.168.23.3, 192.168.23.4, 192.168.23.5

Как можно заметить, в списке присутствуют внешние NTP-пулы, которые я хотел бы удалить:

nutanix@CVM:~$ ncli cluster remove-from-ntp-servers servers="1.pool.ntp.org,0.pool.ntp.org"
    NTP Servers               : 192.168.23.3, 192.168.23.4, 192.168.23.5

Зададим часовой пояс:

nutanix@CVM:~$ ncli cluster set-timezone timezone=Asia/Almaty
Daily/weekly/monthly DR schedules are impacted by cluster timezone change. Please remove existing daily/weekly/monthly DR schedules before proceeding and reconfigure those schedules later to follow the new timezone. Do you want to continue.(y/N)?: y
Please reboot the CVM or restart all services on the cluster so that logs are timestamped with the new Timezone.
    Timezone                  : Asia/Almaty

Поскольку выход в интернет в данном случае необходим, но прямого доступа нет, я добавлю прокси:

nutanix@CVM:~$ ncli http-proxy add name=vmik-proxy address=192.168.22.201 port=3128 proxy-types=http,https
    Status                    : true

Последним шагом задаем Cluster IP, по которому будет доступен Web-интерфейс Prism Element:

nutanix@CVM:~$ ncli cluster set-external-ip-address external-ip-address="192.168.22.210"
    External IP address       : 192.168.22.210

На этом конфигурация кластера завершена. Открываем веб браузер и переходим по ранее заданному Cluster IP адресу, указав порт 9440. Например, https://192.168.22.210:9440

Добро пожаловать в интерфейс Prism Element:

Авторизуемся учетной записью admin с паролем nutanix/4u, после чего будет предложено сменить пароль:

Авторизуемся с новым паролем. Теперь от нас потребуется указать учетную запись .NEXT, которую мы использовали ранее при процедуре регистрации:

Если учетные данные указаны правильно и в кластере присутствует доступ в интернет, все должно быть в порядке:

Кластер Nutanix CE 2.0 из трех узлов готов к использованию:

Loading

Leave a Reply

Your email address will not be published. Required fields are marked *

Translate »