Глава 3. Установка и настройка программного обеспечения кластера

Установив и настроив оборудование кластера, вы можете приступать к установке программного обеспечения кластера. В следующих разделах описывается установка и инициализация кластерного программного обеспечения, проверка конфигурации кластера, настройка протоколирования syslog и использование утилиты cluadmin.

Этапы установки и инициализации программного обеспечения кластера

Перед установкой Red Hat Cluster Manager, установите все необходимое обеспечение, как описано в разделе Требования к ядру систему в Главе 2.

Чтобы сохранить существующую базу данных конфигурации кластера при обновлении программного обеспечения кластера, выполните резервное копирование базы данных кластера и остановите работу кластера. Обратитесь к разделу Обновление программного обеспечения кластера в главе 8 за дополнительной информацией.

Чтобы установить Red Hat Cluster Manager, выполните команду rpm --install clumanager-x.rpm, где x имеющаяся версия Red Hat Cluster Manager. Этот пакет по умолчанию устанавливается в Red Hat Enterprise Linux AS, поэтому чаще всего не требуется устанавливать этот пакет вручную.

Для инициализации и запуска кластерного обеспечения, выполните следующие действия:

  1. Отредактируйте файл /etc/sysconfig/rawdevices в каждой кластерной системе и укажите имя неформатированного устройства для основного и резервного кворумных разделов. Обратитесь к разделу Настройка кворумных разделов в Главе 2 и разделу Редактирование файла rawdevices за дополнительной информацией.

  2. Запустите в одной кластерной системе программу /sbin/cluconfig. Если выполняется обновление программного обеспечения кластера, программа запросит подтверждение на использование существующей базы данных кластера. Если база данных кластера не используется, программа удалит её.

    Программа запросит следующую информацию, которая будет сохранена в полях раздела member базы данных кластера. Копия этих данных будет записана в файл /etc/cluster.conf:

    • Специальные файлы неформатированных устройств для основного и резервного кворумных разделов, как указано в файле /etc/sysconfig/rawdevices (например, /dev/raw/raw1 и /dev/raw/raw2)

    • Сетевые имена кластерной системы, возвращаемые командой hostname

    • Число пульсирующих соединений (каналов): Ethernet и последовательных

    • Специальное имя устройства для каждого пульсирующего последовательного соединения (например, /dev/ttyS1)

    • Сетевое имя, связанное с каждым пульсирующим Ethernet интерфейсом

    • IP адрес для удаленного управления кластером, также называемый "псевдонимом кластера". Обратитесь к разделу Настройка псевдонима кластера за дополнительной информацией.

    • Специальные файлы устройств для последовательных портов, к которым подключены переключатели питания (если они используются) (например, /dev/ttyS0) или IP-адрес переключателя питания с сетевым интерфейсом.

    • Тип переключателя питания (например, RPS10 или None (Отсутствует), если переключатели питания не используются)

    • Система предложит также включить удаленное наблюдение. Обратитесь к разделу Настройка псевдонима кластера за дополнительной информацией.

    Обратитесь к разделу Пример использования утилиты cluconfig за примером работы с этой утилитой.

  3. Завершив инициализацию кластера на одной кластерной системе, выполните в другой системе следующие действия:

    • Запустите команду /sbin/cluconfig --init=raw_file, где raw_file - название основного кворумного раздела. Этот сценарий по умолчанию будет использовать информацию, определенную для первой кластерной системы. Например:

      cluconfig --init=/dev/raw/raw1
  4. Проверьте конфигурацию кластера:

    • Запустите программу cludiskutil с параметром -t в обеих кластерных системах, и убедитесь в том, что кворумные разделы указывают на одно физическое устройство. Обратитесь к разделу Проверка кворумных разделов за дополнительной информацией.

    • Если вы используете переключатели питания, выполните команду clustonith в каждой кластерной системе для проверки удаленного подключения к переключателям. Обратитесь к разделу Проверка переключателей питания за дополнительной информацией.

  5. По своему усмотрению, настройте протоколирование событий, чтобы сообщения кластера записывались в отдельный файл. Обратитесь к разделу Настройка протоколирования событий syslog за дополнительной информацией.

  6. Запустите кластер, выполнив команду cluster start в каталоге init обеих кластерных систем. Например:

    service cluster start

После инициализации кластера, приступайте к добавлению кластерных служб. Обратитесь к разделу Использование утилиты cluadmin и разделу Настройка службы в главе 4 за дополнительной информацией.

Редактирование файла rawdevices

Файл /etc/sysconfig/rawdevices используется для привязки неформатированных устройств к кворумным разделам при загрузке кластерной системы. Одним из этапов установки программного обеспечения кластера является определение в файле rawdevices каждой кластерной системы неформатированных устройств для основного и резервного кворумных разделов. Это необходимо сделать до запуска программы cluconfig.

Если неформатированные устройства используются кластерными службами, привязки этих устройств также задаются в файле rawdevices. Отредактируйте файл и укажите неформатированные символьные и блочные устройства, привязку которых вы бы хотели выполнять при загрузке системы. Чтобы изменения, внесенные в файл rawdevices, вступили в силу без перезагрузки, выполните следующую команду:

  service rawdevices restart

Ниже приведен пример файла rawdevices, в котором описаны два кворумных раздела:

# raw device bindings
# format:  <rawdev> <major> <minor>
#          <rawdev> <blockdev>
# example: /dev/raw/raw1 /dev/sda1
#          /dev/raw/raw2 8 5
/dev/raw/raw1 /dev/sdb1
/dev/raw/raw2 /dev/sdb2

Обратитесь к разделу Настройка кворумных разделов в главе 2 за дополнительной информацией о создании кворумных разделов. Обратитесь к разделу Создание неформатированных устройств в главе 2 за дополнительной информацией об использовании команды raw для привязывания неформатированных устройств к блочным устройствам.

ЗамечаниеЗамечание
 

Настройку неформатированных разделов необходимо выполнить на каждом узле кластера.

Настройка псевдонима кластера

Под псевдонимом кластера понимается привязывка IP адреса к одному из активных узлов кластера. В каждый определенный момент времени этот IP адрес будет принадлежать только одному узлу кластера. Этот IP адрес удобно использовать для управления и наблюдения за системой. Например, администратору может понадобиться подключиться через telnet к действующему узлу кластера, причем не важно к какому. В этом случае достаточно указать в параметрах telnet IP-псевдоним кластера (или связанное с ним имя). Однако чаще псевдоним кластера используется для подключения графической программы наблюдения к работающему узлу кластера. В этом случае, если один из двух узлов кластера не работает, вы по-прежнему можете наблюдать за работой кластера; при этом можно не задумываться, к какому из узлов кластера подключиться.

Запустив cluconfig, вы увидите предложение задать псевдоним кластера. На экране появится следующее приглашение:

Enter IP address for cluster alias [NONE]: 172.16.33.105

Как показано выше, по умолчанию предлагается значение NONE, которое означает, что псевдоним кластера не определен, но вы можете изменить это значение и определить в качестве псевдонима кластера, например IP-адрес 172.16.33.105. IP адрес, используемый для псевдонима кластера должен отличаться от IP адресов, связанных с сетевыми именами узлов кластера. Он также должен отличаться от IP адресов, связанных с кластерными службами.

Включение удаленного наблюдения

Запустив cluconfig для определения параметров конфигурации кластера, вы увидите следующее приглашение:

Do you wish to enable monitoring, both locally and remotely, via \
	  the Cluster GUI? yes/no [yes]:

Ответив yes, вы разрешаете локальный и удаленный мониторинг посредством графических утилит. Это единственное средство обезопасить удаленный доступ для наблюдения работой кластера. Графические утилиты кластера способны только наблюдать за работой кластера, и не могут вносить каких-либо изменений в конфигурацию.

Ответив no (нет), вы отключите доступ к кластеру из графической среды наблюдения.

Пример использования утилиты cluconfig

В этом разделе приведен пример использования утилиты конфигурации кластера cluconfig, которая запрашивает у вас информацию об узлах кластера, а затем сохраняет эту информацию в базе данных кластера. Копия этих данных будет записана в файл cluster.conf. В этом примере, информация, вводимая в программе cluconfig, соответствует следующей конфигурации кластера:

  • В кластерной системе storage0:

    Пульсирующие Ethernet каналы: storage0
    Последовательный порт переключателя питания: /dev/ttyC0
    Переключатель питания: RPS10 
    Кворумные разделы: /dev/raw/raw1 и /dev/raw/raw2
  • В кластерной системе storage1:

    Пульсирующие Ethernet каналы: storage1 и cstorage1
    Пульсирующий последовательный канал: /dev/ttyS1 
    Последовательный порт переключателя питания: /dev/ttyS0
    Переключатель питания: RPS10
    Кворумные разделы: /dev/raw/raw1 и /dev/raw/raw2
  • IP адрес, используемый в качестве псевдонима кластера: 10.0.0.154

/sbin/cluconfig

Red Hat Cluster Manager Configuration Utility (running on storage0)

- Configuration file exists already.
    Would you like to use those prior settings as defaults? (yes/no) [yes]: yes 
Enter cluster name [Development Cluster]: 
    Enter IP address for cluster alias [10.0.0.154]: 10.0.0.154

--------------------------------
Information for Cluster Member 0
--------------------------------
	  Enter name of cluster member [storage0]: storage0
Looking for host storage0 (may take a few seconds)...

Enter number of heartbeat channels (minimum = 1) [1]: 1
Information about Channel 0
Channel type: net or serial [net]: 
Enter hostname of the cluster member on heartbeat channel 0 \
	  [storage0]: storage0
Looking for host storage0 (may take a few seconds)...

Information about Quorum Partitions
Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1
Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2

Information About the Power Switch That Power Cycles Member 'storage0'
Choose one of the following power switches:
  o NONE
  o RPS10
  o BAYTECH
  o APCSERIAL
  o APCMASTER
  o WTI_NPS
Power switch [RPS10]: RPS10
Enter the serial port connected to the power switch \
	  [/dev/ttyS0]: /dev/ttyS0

--------------------------------
Information for Cluster Member 1
--------------------------------
Enter name of cluster member [storage1]: storage1
Looking for host storage1 (may take a few seconds)...

Information about Channel 0
Enter hostname of the cluster member on heartbeat channel 0 \
	  [storage1]: storage1
Looking for host storage1 (may take a few seconds)...

Information about Quorum Partitions
Enter Primary Quorum Partition [/dev/raw/raw1]: /dev/raw/raw1
Enter Shadow Quorum Partition [/dev/raw/raw2]: /dev/raw/raw2

Information About the Power Switch That Power Cycles Member 'storage1'
Choose one of the following power switches:
  o NONE
  o RPS10
  o BAYTECH
  o APCSERIAL
  o APCMASTER
  o WTI_NPS
Power switch [RPS10]: RPS10
Enter the serial port connected to the power switch \
	  [/dev/ttyS0]: /dev/ttyS0

Cluster name: Development Cluster
Cluster alias IP address: 10.0.0.154
Cluster alias netmask: 255.255.254.0

Serial port connected to the power switch \
	  [/dev/ttyS0]: /dev/ttyS0

Cluster name: Development Cluster
Cluster alias IP address: 10.0.0.154
Cluster alias netmask: 255.255.254.0

--------------------
Member 0 Information
--------------------
Name: storage0
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: storage0
Power switch IP address or hostname: storage0
Identifier on power controller for member storage0: storage0
--------------------
Member 1 Information
--------------------
Name: storage1
Primary quorum partition: /dev/raw/raw1
Shadow quorum partition: /dev/raw/raw2
Heartbeat channels: 1
Channel type: net, Name: storage1
Power switch IP address or hostname: storage1
Identifier on power controller for member storage1: storage1

--------------------------
Power Switch 0 Information
--------------------------
Power switch IP address or hostname: storage0
Type: RPS10
Login or port: /dev/ttyS0
Password: 10
--------------------------
Power Switch 1 Information
--------------------------
Power switch IP address or hostname: storage1
Type: RPS10
Login or port: /dev/ttyS0
Password: 10

Save the cluster member information? yes/no [yes]:    
Writing to configuration file...done
Configuration information has been saved to /etc/cluster.conf.
----------------------------
Setting up Quorum Partitions
----------------------------
Running cludiskutil -I to initialize the quorum partitions: done
Saving configuration information to quorum partitions: done
Do you wish to enable monitoring, both locally and remotely, via the \
	  Cluster GUI? yes/no [yes]: yes

----------------------------------------------------------------

Configuration on this member is complete.

To configure the next member, invoke the following command on that system:

# /sbin/cluconfig --init=/dev/raw/raw1

See the manual to complete the cluster installation