Настраиваем кластер Nutanix без Foundation

На днях довелось настроить один предустановленный AHV кластер на базе NX G7. После коммутации и запуска утилиты для настройки кластера Foundation, я споткнулся на первом же шаге – ноды не обнаруживались по IPv6. Попробовав некоторые решения из KB и по итогу сославшись на особенность свитчей, решил собрать кластер руками.

Под катом достаточно простой порядок действий.

Дано:

  1. Несколько предустановленных нод NX серии (Supermicro);
  2. Все сервера подключены двумя портами 10Gbe к двум коммутаторам. На порты подан trunk, а также указан native vlan в котором будут работать гипервизоры и CMV. Агрегации портов нет;
  3. Также подключен гигабитный IPMI интерфейс;
  4. На хостах не прописаны никакие IP-адреса, по сети они недоступны.

Учитывая, что все хосты в моем случае уже предустановлены, задача по сбору кластера сильно облегчается. Понять то, что хосты предустановлены легко – нужно включить сервер и убедиться, что производится запуск гипервизора.

О том, что на гипервизоре запущена CVM также достаточно просто узнать – необходимо войти в систему логином nutanix и паролем nutanix/4u. После этого выполнить команду sudo virsh list

На хосте должна работать виртуальная машина с говорящим суффиксом CVM. Таким образом мы имеем готовые к настройке хосты.

До начала работ необходимо подготовить таблицу формата:

Node SNIPMI AddrAHV AddrCVM Addr
SN-A10.100.200.1110.100.201.1110.100.201.31
SN-B10.100.200.1210.100.201.1210.100.201.32
SN-C10.100.200.1310.100.201.1310.100.201.33

Здесь же следует указать используемые маски сети, адреса шлюзов, NTP, DNS. Так же стоит определить заранее адрес под Cluster Management и, возможно, Data Services IP.

Займемся настройкой:

В первую очередь настроим IPMI, чтобы не сидеть в ЦОД. Сделать это можно из консоли, либо через BIOS. Для меня проще настроить IPMI в BIOS, предварительно перезагрузив ноду.

Для подключения к IPMI в случае с серией NX используем логин ADMIN, а в качестве пароля – серийный номер ноды, управление которой мы хотим получить. Найти серийный номер можно на наклейке в задней части ноды.

После настройки IPMI и получения возможности настраивать кластер из удобного места, основным документом, которым следует руководствоваться в настройке, является Acropolis Advanced Administration Guide и раздел Manual Cluster Creation.

Начнем с указания IP адресов гипервизоров AHV. Здесь ничего сложного, привычный CentOS Linux. Меняем адрес на первой ноде в соответствии с инструкцией.

Замена выполняется на созданном предварительно сетевом интерфейсе ifcfg-br0.

На всякий случай сделаем резервную конфигурацию файла настроек интерфейса:
ahv$ sudo cp /etc/sysconfig/network-scripts/ifcfg-br0 /root/

Теперь отредактируем файл и зададим адрес, маску и шлюз для гипервизора:
ahv$ sudo vi /etc/sysconfig/network-scripts/ifcfg-br0

После правки перезапустим сеть на узле:
ahv$ sudo /etc/init.d/network restart

Если все сделано верно, гипервизор должен начать отвечать по сети и станет доступным по SSH.

Теперь укажем внешний IP адрес для CVM, которая работает на данном узле.

Все CVM сконфигурированы с тремя сетевыми интерфейсами: внешний (eth0), внутренний (eth1), а так же интерфейс, который используется при включении Network Segmentation (eth2). Поскольку внешнего IP адреса у нас еще нет, для подключения к CVM используем единственный сконфигурированный – eth1.

Для этого, не уходя далеко с хоста AHV, подключаемся к CVM, которая на нем запущена по SSH (для подключения используем логин nutanix и пароль nutanix/4u:
ahv$ ssh nutanix@192.168.5.2

Для смены адреса используем инструкцию. CVM так же работает на CentOS Linux, поэтому большинство шагов аналогичны, в данном случае адрес необходимо задать ТОЛЬКО для интерфейса eth0.

Сделаем резервную копию интерфейса eth0:
cvm$ sudo cp /etc/sysconfig/network-scripts/ifcfg-eth0 /root/

Отредактируем файл в соответствии с инструкцией выше:
cvm$ sudo vi /etc/sysconfig/network-scripts/ifcfg-eth0

И перезагрузим CVM:
cvm$ sudo reboot

Если все сделано верно, после перезагрузки к CVM можно будет подключиться по SSH.

Выполняем аналогичную операцию на всех оставшихся гипервизорах AHV и CVM, которые на них расположены. Как итог, все узлы и CVM должны быть доступны по сети.

Теперь сконфигурируем кластер

Для этого подключаемся к одной из CVM по SSH учетной записью nutanix  и запускаем процедуру конфигурации кластера:
cvm$ cluster -s 10.10.201.31,10.10.201.32,10.10.201.33 create

Не трудно догадаться, что после ключа -s мы указываем адреса CVM.

Проблем на этапе конфигурации кластера возникнуть не должно и как итог мы увидим: “INFO cluster:2875 Success!

При запросе cluster status, мы должны убедиться, что все службы запущены на всех CVM:

Осталось пару штрихов (все операции выполняются с CVM)

Зададим имя кластеру:
cvm$ ncli cluster edit-params new-name=cluster_name

Укажем, какие DNS сервера использовать (через запятую):
cvm$ ncli cluster add-to-name-servers servers="10.10.10.10,10.10.10.11"

Так же укажем сервера времени NTP:
cvm$ ncli cluster add-to-ntp-servers servers="10.10.11.10,10.10.11.11,10.10.11.12"

Возможно, для отображения корректного времени понадобится сменить часовой пояс:
cvm$ ncli cluster set-timezone timezone=Asia/Almaty

И зададим адрес для доступа к кластеру, который был определен ранее:
cvm$ ncli cluster set-external-ip-address external-ip-address="10.100.201.10"

Если подключиться к данному адресу браузером по порту 9440, мы попадем в Prism Element.

При первом входе следует использовать логин admin и пароль nutanix/4u, после чего пароль необходимо будет сменить.

И как итог, мы получаем готовый к использованию кластер:

Вот так, достаточно просто, можно собрать кластер с предварительно установленными гипервизорами без использования Foundation.

One thought on “Настраиваем кластер Nutanix без Foundation”

  1. Не думал что такое поддерживается, хотя процесс почти не отличается от установки CE.

Leave a Reply

Your email address will not be published. Required fields are marked *