пятница, 11 сентября 2009 г.

Обзор СХД HP Lefthand P4000 Virtual SAN Appliance (часть II)

Как и обещал, публикую продолжение обзора виртуальной СХД HP Lefthand P4000 Virtual SAN Appliance. В прошлый раз мы рассмотрели базовую настройку виртуальной машины, а также операции по созданию и публикации томов – функционал без которого не обходится ни одна СХД; сегодня я расскажу о тех вещах, которые делают из HP Lefthand продукт корпоративного уровня.


Организация многоузлового кластера
Если вы читали первую часть обзора, то должны помнить, что кластер HP Lefthand включает в себя один или несколько узлов. В кластере дисковое пространство всех узлов суммируется. Тома, организованные на таком кластере, равномерно хранятся на всех узлах, а это значит, что при обращении к такому многоузловому тому обеспечивается балансирование нагрузки и, как следствие, увеличивается производительность вашей СХД. Но что произойдет при отказе одного из узлов? В лучшем случае том станет недоступен, до тех пор, пока вы не вернете в строй выбывший узел, в худшем – вы потеряете всю информацию, хранящуюся на томе. Плохо? Конечно плохо! Как раз для борьбы с этой опасностью и существует репликация – вариант хранения данных при котором помимо основного тома в кластере размещается и постоянно синхронизируется одна или несколько его копий. Поэтому даже при выходе из строя одного (или нескольких) узлов кластера все данные на вашем томе останутся в целости и сохранности.

Для примера работы многоузлового кластера я буду использовать еще одну виртуальную машину с такими же параметрами, как и в первой части обзора.

После создания виртуальной машины и настройки сетевых параметров, запустите консоль HP Lefthand Networks Centralized Management Console, перейдите в Getting Started и запустите мастер Find New Nodes для поиска и добавления новых узлов.На первой странице мастера нажмите Next. На странице Search for nodes either globally or individually оставьте переключитель по-умолчанию (By IP address or Hostname (individual search)) и нажмите Next. На вкладке Search by node IP address or hostname с помощью кнопки Add... добавьте IP адрес нового узла, нажмите Finish для поиска, а затем Close для завершения работы мастера.Раскройте Available Nodes, щелкните правой кнопкой мыши по узлу и выберите Add to Existing Management Group.В окне Add to an Existing Management Group выберите управляющую группу, в которую собираетесь добавить узел, и нажмите Add. При необходимости укажите учетную запись и пароль для доступа к управляющей группе. Подождите, пока система выполнит необходимые настройки.

Заметьте, что пиктограмма вашей управляющей группы стала мигать, а во вкладке Details появилось предупреждение о менеджерах (managers) узлов.Чуть ниже я расскажу об этом, а пока не обращайте внимание (так надо).

После добавления узла в управляющую группу вы можете создать новый кластер и включить туда данный узел, либо добавить узел в текущий кластер. Нас интересует второй вариант.

Для добавления узла в кластер, щелкните по нему правой кнопкой мыши и выберите Add to Existing or New Cluster.В окне Add to or Create a Cluster, оставьте переключатель в значении Existing Cluster, укажите кластер, в который хотите добавить узел и нажмите Add.

Обратите внимание, что теперь дисковое пространство доступное для создание томов суммируется, а данные тома равномерно распределяются между всеми узлами.
На вкладке Node Use можно посмотреть, какой объем дискового пространства отводится под размещение томов. Перейдите в Volumes and Snapshots, щелкните правой кнопкой мыши по ранее созданному тому и выберите Edit Volumes.Перейдите на вкладку Advanced. Заметьте, что теперь для настройки доступен параметр уровня репликации (Replication Level). Данный параметр позволяет задавать количество копий (реплик) для тома (один том может иметь до 4-рех копий (4-Way)). Учтите, что количество копий не может превышать количество доступных узлов. Поэтому в текущем примере возможно установить значение Replication Level в 2-Way.После установки уровня репликации станет возможным изменить приоритет репликации (Replication Priority). Данный параметр имеет два возможных значения:


  • Доступность (Availability) - позволяет клиентам продолжать записывать данные на том даже при отказе одного или нескольких узлов (зависит от уровня репликации). Хотя такой режим, потенциально, и может привести к рассинхронизации и потере данных, однако позволит серверам продолжать работать в штатном режиме, не ограничивая их в доступе к данным.
  • Надежность (Redundancy) – данный режим обеспечивает максимальную сохранность данных в случае выхода из строя узлов кластера, так как оставляет доступ к томам только в режиме на чтение до тех пор, пока работа отказавших узлов не будет восстановлена, либо данный том не будет переведен администратором в режим доступности (availability).


Роль менеджеров в HP Lefthand
А теперь вернемся к предупреждению, которое возникло после добавления нового узла в управляющую группу.

Поскольку все узлы в кластере являются активными (позволяют считывать и записывать данные), то появляется еще одна проблема, известная как Split Brain. Она возникает в случае, когда приничиной неполадки является сбой в работе сети, приводящий к изоляции узлов. В этом случае, каждый из узлов может посчитать себя единственным активным узлом, по причине невозможности связаться с остальными, и продолжить запись на свою копию тома. В итоге может получиться, что информация на разных узлах рассинхронизируется, и, в дальнейшем, при восстановлении связи возникнет проблема с определением актуальных данных. Понятно, что уменьшить риск возникновения неполадки можно путем организации дополнительных линий связи между узлами (путем добавления нескольких виртуальных и физических адаптеров, коммутаторов, организации транков и т.п.), но есть и другой способ.

На каждый узел можно назначить роль менеджера (Manager), однако их количество в управляющей группе не может превышать 5-ти. Как и в других кластерных системах, узлы HP Lefthand организуют кворумы и используют систему выборов на основе простого большинства. Если после возникновения неполадок с сетью, узел по прежнему может связаться с большинством менеджеров в группе (n/2 + 1), значит он не изолирован и может продолжать работать.

Например, при организации трехузлового кластера (число узлов, n = 3), когда каждый узел является менеджером; в случае изоляции одного из узлов, он автоматические переходит в пассивное состояние и прекращает запись на том, так как остается в меньшинстве ( 1 < 1 + 1), тогда как два других остаются в активном состоянии и продолжают работать, так как могут связаться друг с другом ( 1 + 1 > 1).

Для активации роли менеджера щелкните правой кнопкой мыши по узлу и выберите Start Manager (на первом узле в управляющей группе роль менеджера включена по-умолчанию). В случае, когда у вас четное количество узлов вы можете поступить двумя способами: назначить менеджерами нечетное количество узлов (n-1); настроить на одном из узлов виртуального менеджера (virtual manager, n+1), который будет, что называется, работать за двоих.

Например, при четырехузловой конфигурации, маловероятный, но возможный случай, когда кластер разделился на две несвязанные подсети по два узла в каждой – тогда при использовании виртуального менеджера, в одной подсети менеджеров будет больше (2 + 1 > 1 + 1).
Для добавления виртуального менеджера, щелкните правой кнопкой мыши по управляющей группе и выберите Add Virtual Manager.На запрос системы ответьте OK. Щелкните правой кнопкой мыши по появившемуся разделу Virtual Manager и выберите Start Virtual Manager.В окне Node List укажите, на каком из узлов будет запущен виртуальный менеджер и нажмите OK.

Мгновенные снимки в HP Lefthand
Последняя тема, которой я хотел бы коснуться – мгновенные снимки. Как и другие СХД HP Lefthand позволяет создавать мгновенные снимки, сохраняющие актуальное состояние тома на заданный момент времени. HP Lefthand может выполнить презентацию мгновенных снимков, например, чтобы сохранить данные системой резервного копирования, откатить все изменения, выполненные на томе с момента создания снимка, либо удалить снимок, окончательно сохранив информацию на томе. Поддерживается возможность создания мгновенных снимков как вручную (при выборе в контекстном меню тома варианта New Snapshot), так и по расписанию (New Schedule to Snapshot a Volume). В последнем случае вы можете задать дату и время выполнения операции (Start At), частоту повторения (Recur Every), длительно хранения (Retain Snapshots For), либо количество хранимых мгновенных снимков (Retain Maximum Of) для экономии пространства на СХД и возможности перезаписи старых снимков. Кроме того, мгновенные снимки могут храниться на томе, расположенном на удаленной СХД/кластере (Remote Volume – специальный тип тома, настраивающийся при его создании). Такие мгновенные снимки называются мгновенными сниками на удаленной СХД (Remote Snapshots). Данная возможность может пригодиться при организации территориально-распределенных СХД, либо для синхронизации данных между основным и резервным ЦОД.

При создании такого снимка (New Remote Snapshot – для создания вручную или New Schedule to Remote Snapshot a Volume – для создания по расписанию) вам понадобится указать том на удаленной СХД, к которому будет привязан мгновенный снимок. Том можно создать заранее, либо из окна New Remote Snapshot при помощи кнопки New Remote Volume. Логично, что для этого вам поднадобится отдельный кластер, но для экспериментов создать том можно и в существующем.

Заключение
На этом обзор HP Lefthand VSA подходит к концу. Я хотел рассказать об основных возможностях виртуальной СХД, хотя, на мой взгляд, получилось немного растянуто и сумбурно. Я намеренно опустил остальные функции HP Lefthand, такие как мониторинг, разграничение прав, организация территориально-распределенных СХД, конфигурация сайтов и пропускной способности каналов, обеспечение отказоустойчивости виртуальных СХД и многое, многое другое. В общем, читайте замечательное руководство по данному продукту, если хотите узнать больше. А на сегодня все.

5 комментариев:

  1. Sergey, нет, увы, не бесплатен. Цены, как и на другую продукцию HP вы можете узнать у оффициальных дистрибьюторов. Если хотите общий порядок - попробуйте спросить у Google по partnumbers

    ОтветитьУдалить
  2. 6000 долларов - весьма недешево
    а есть ли starwind под esx?
    с win-системами на таком важном узле связываться не хотелось бы

    ОтветитьУдалить
  3. Насколько я знаю - нет.

    Если узел важен - то вы можете обеспечить отказоустойчивость как Starwind, так и iSCSI Target на базе Linux.

    ОтветитьУдалить
  4. Добрый день!

    ссылка на "замечательное руководство" не работает, подскажите, где его можно скачать... http://h20000.www2.hp.com/bc/docs/support/SupportManual/c01725474/c01725474.pdf

    ОтветитьУдалить
  5. 2 kluger:
    Обновил ссылку, а вообще, смотрите тут.

    ОтветитьУдалить