Поиск по сайту:

Как синхронизировать конфигурацию кластера и проверить настройку аварийного переключения на узлах — часть 4


Привет, народ. Прежде всего, мои извинения за задержку последней части этой серии статей. Давайте приступим к работе, не задерживаясь больше.

Поскольку многие из вас завершили все три предыдущие части, я проинформирую вас о том, что мы уже завершили. Теперь у нас уже достаточно знаний, чтобы установить и настроить пакеты кластера для двух нод, а также включить ограждение и аварийное переключение в кластерной среде.

Если вы не помните, вы можете обратиться к моим предыдущим частям, поскольку публикация последней части заняла немного больше времени.

Введение в кластеризацию Linux и преимущества и недостатки кластеризации – часть 1

Как установить и настроить кластер с двумя узлами в Linux – Часть 2

Ограждение и добавление аварийного переключения в кластеризацию – часть 3

Начнем с добавления ресурсов в кластер. В этом случае мы можем добавить файловую систему или веб-сервис по вашему желанию. Теперь у меня есть раздел /dev/sda3, смонтированный в /x01, который я хочу добавить в качестве ресурса файловой системы.

1. Я использую команду ниже, чтобы добавить файловую систему в качестве ресурса:

ccs -h 172.16.1.250 --addresource fs name=my_fs device=/dev/mapper/tecminttest_lv_vol01 mountpoint=/x01 fstype=ext3

Кроме того, если вы также хотите добавить услугу, вы можете использовать приведенную ниже методологию. Введите следующую команду.

ccs -h 172.16.1.250 --addservice my_web domain=testdomain recovery=relocate autostart=1

Вы можете убедиться в этом, просмотрев файл cluster.conf, как мы это делали в предыдущих уроках.

2. Теперь введите следующую запись в файл cluster.conf, чтобы добавить ссылочный тег к службе.

<fs ref="my_fs"/>

3. Все готово. Нет, мы посмотрим, как мы можем синхронизировать конфигурации, которые мы сделали, для кластеризации между двумя имеющимися у нас узлами. Следующая команда сделает необходимое.

ccs -h 172.16.1.250 --sync --activate

Примечание. Введите пароли, которые мы установили для ricci на ранних этапах установки пакетов.

Вы можете проверить свои конфигурации, используя команду ниже.

ccs -h 172.16.1.250 --checkconf

4. Теперь пришло время приступить к делу. Вы можете использовать одну из приведенных ниже команд по своему усмотрению.

Чтобы запустить только один узел, используйте команду с соответствующим IP.

ccs -h 172.16.1.222 start

Или, если вы хотите запустить все узлы, используйте опцию --startall следующим образом.

ccs -h 172.16.1.250 –startall

Вы можете использовать команду stop или --stopall, если вам нужно остановить кластер.

В сценарии, например, если вы хотите запустить кластер без включения ресурсов (ресурсы будут автоматически включены при запуске кластера), например, в ситуации, когда вы намеренно отключили ресурсы на определенном узле, чтобы отключить циклы ограждения, вы не хочу включать эти ресурсы при запуске кластера.

Для этой цели вы можете использовать команду ниже, которая запускает кластер, но не включает ресурсы.

ccs -h 172.16.1.250 --startall --noenable 

5. После запуска кластера вы можете просмотреть статистику, введя команду clustat.

clustat

В приведенных выше выводах говорится, что в кластере есть два узла, и оба в данный момент запущены и работают.

6. Вы помните, что в предыдущих уроках мы добавили механизм аварийного переключения. Хотите проверить, работает ли это? Вот как вы это делаете. Принудительно завершить работу одного узла и просмотреть статистику кластера с помощью команды clustat, чтобы узнать результаты аварийного переключения.

Я закрыл свой node02server(172.16.1.223) с помощью команды shutdown -h now. Затем выполнил команду clustat с моего cluster_server(172.16.1.250).

Вышеуказанные выходные данные поясняют, что узел 1 находится в сети, в то время как узел 2 отключен, поскольку мы его отключили. Тем не менее, служба и файловая система, которыми мы поделились, все еще находятся в сети, в чем вы можете убедиться, проверив ее на node01, который находится в сети.

df -h /x01

Обратитесь к файлу cluster.conf со всем набором настроек, соответствующим нашей настройке, используемой для tecmint.

<?xml version="1.0"?>
<cluster config_version="15" name="tecmint_cluster">
        <fence_daemon post_join_delay="10"/>
        <clusternodes>
                <clusternode name="172.16.1.222" nodeid="1">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="172.16.1.223" nodeid="2">
                        <fence>
                                <method name="Method01">
                                        <device name="tecmintfence"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_virt" name="tecmintfence"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="tecmintfod" nofailback="0" ordered="1" restricted="0">
                                <failoverdomainnode name="172.16.1.222" priority="1"/>
                                <failoverdomainnode name="172.16.1.223" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <fs device="/dev/mapper/tecminttest_lv_vol01" fstype="ext3" mountpoint="/x01" name="my_fs"/>
                </resources>
                <service autostart="1" domain="testdomain" name="my_web" recovery="relocate"/>
                <fs ref="my_fs"/>
       </rm>
</cluster>

Надеюсь, вам понравилась вся серия уроков по кластеризации. Оставайтесь на связи с tecmint, чтобы получать больше полезных руководств каждый день, и не стесняйтесь комментировать свои идеи и вопросы.