ИНФОРМАЦИЯ

Настройка и использование кластеров с Shared DAS

Введение

В данной статье речь пойдет о подготовке и первоначальной настройке оборудования для построения отказоустойчивых кластеров (Failover Cluster) с общим хранилищем подключенном по SAS интерфейсу (Shared DAS).

К таким решениям относятся как специализированные комплексы Demos R420, т.н. кластера в коробке (Cluster-In-Box), так и все возможные варианты рассмотренные в материале о Shared DAS

Некоторые из рекомендаций были упомянуты в руководстве по развертыванию кластеров на базе Windows Server, здесь они будут дополнены и собраны воедино.

Подготовка оборудования

Перед установкой операционной системы убедитесь, что конфигурации узлов идентичны, оперативная память работает без сбоев, диски исправны.

Note
В подобных решениях допустимо использование жестких и SSD дисков с интерфейсом SAS.

Перед первым использованием дисков в следует убедится в отсутствии на них метаинформации о принадлежности к другим программным или аппаратным массивам. При возможности, бывшие в употреблении диски нужно отформатировать и заполнить нулями. В крайнем случае, хотя бы удалить таблицы разделов.

На всех контроллерах, установленных в системах, рекомендуется обновить прошивки до актуальных версий. Особенно это касается дисковых контроллеров как HBA, так и RAID. На момент написания статьи единственным производителем логики для контроллеров поддерживающим подобные решения является компания LSI.

Проконтролируйте, что используется прошивка HBA контроллеров типа IT. Если контроллер прошит версией IR, нужно заменить прошивку. Допускается использование любых моделей HBA контроллеров. В случае RAID допустимо использование только специализированных комплектов LSI Syncro.

Все активные, но неиспользуемые устройства рекомендуется отключить либо в BIOS, либо в операционной системе.

Подготовка ОС

Установите обновленные драйвера для компонентов сервера. В наибольшей степени это относится к устройствам ввода-вывода: дисковые и сетевые контроллеры. Зачастую, производители дисковых контроллеров выпускают прошивки и комплект драйверов совместно и именно в таком варианте рекомендуется их использовать.

По окончанию установки проверьте, что в диспетчере задач нет неопознанных устройств.

Перед разворачиваем кластера установите все системные обновления. В случае Windows Server набор установленных пакетов должен быть
идентичен на всех узлах.

Установите ПО для работы с многопутевым вводом-выводом. В Windows Server это соответствующий компонент. В GNU Linux обычно это пакет multipath-tools. Проверьте, что набор разделяемых дисков присутствует на обоих узлах и идентичен. Все общие диски являются multipath-устройствами в Windows Server,

MPIO-диски в диспетчере устройств
Рис. 1. MPIO-диски в диспетчере устройств

а в GNU Linux вывод команды multipath -l выдает правильное количество дисков с необходимым числом путей.

Убедитесь, что вы понимаете соответствие между логическими номерами жестких дисков в системе и их положением в дисковых корзинах. В Windows Server это можно проверить через диспетчер дисковой подсистемы:

Подсветка жесткого диска
Рис. 2. Подсветка жесткого диска

Подсветка диска (Hyperion RS420 G4)
В GNU Linux для управления светодиодами можно использовать утилиту «sg_ses«.

На этом же этапе рекомендуется проверить SAS-коммутацию. Здесь необходимо понимание того, какие из кабелей будет частью multipath-системы, а какие будут образовывать т.н. wide-порты.

Сетевая инфраструктура

Все сказанное выше относительно драйверов и прошивок справедливо и для сетевых контроллеров.

Для отказоустойчивости и увеличения скорости рекомендуется использовать объединение нескольких интерфейсов т.н. bonding/teaming.

В Windows Server объединение портов можно осуществить как средствами входящими в состав операционной системы,

Объединение портов средствами Windows Server
Рис. 4. Объединение портов средствами Windows Server

так и ПО идущим в составе драйверов для сетевых контроллеров. Например для сетевых контроллеров Intel:

Объединение портов средствами ПО Intel
Рис. 5. Объединение портов средствами ПО Intel

Для настройки bonding в ОС GNU Linux обратитесь к нашему подробному руководству.

Для работы с интерфейсом iSCSI рекомендуется использование сетевых подключений на скорости 10Gbps и выше. Это обусловлено не сколько пропускной способностью интерфейса, сколько сильно меньшей величиной латентности.

Перед настройкой кластера переименуйте сетевые интерфейсы согласно дальнейшей логики использования. В будущем будет гораздо проще искать проблемы и ориентироваться в топологии.

Обязательно включите все имена серверов и служб в DNS (домен).
Убедитесь в правильной работе прямого и обратного разрешения имен.

Используйте большие значение MTU (Jumbo Frame), но первоначально проверьте, что всё сетевое оборудование поддерживает такие размеры
пакетов.

НОВОСТИ

Последние новости