Как подключить полку к серверу
Перейти к содержимому

Как подключить полку к серверу

  • автор:

 

Как подключить полку к серверу

clop1000

Clone Grade Theta

  • Client: Eng

Karmael

Clone Grade Omicron

  • EVE Ingame: Silivalia
  • DUST Ingame: karmaell
  • Corp: exXMX
  • Ally: exIAC
  • Client: Eng

Denadan

  • EVE Ingame: denadanA
  • Ally: RED(offline)
  • Client: Eng

vmarkelov

Clone Grade Omicron

  • EVE Ingame: Kej Lacitis
  • EVE Alt: Kej Al’tos
  • Corp: Space Mechanics
  • Ally: Circle of Hell
  • Client: Рус

clop1000

Clone Grade Theta

  • Client: Eng

Karmael

Clone Grade Omicron

  • EVE Ingame: Silivalia
  • DUST Ingame: karmaell
  • Corp: exXMX
  • Ally: exIAC
  • Client: Eng

Denadan

  • EVE Ingame: denadanA
  • Ally: RED(offline)
  • Client: Eng

Karmael

image alt text

image alt text

Для подключение к серверу используются адаптеры (HBA) под конкретный интерфейс, которые просто позволяют ОС увидеть готовые дисковые тома.
image alt text

Разница между СХД и полкой и что такое JBOD

Давайте попробуем определить, что за устройство на картинке.
Правильно – по “морде” определить невозможно. Нужно смотреть на тыльную часть. И варианты могут быть разные:

B. Система хранения данных (СХД)

C. Дисковая полка SAS-1 c двумя контроллерами JBOD (HP MSA2000sa AJ750A)

Думаю, читатели данной статьи хорошо знают, что такое сервер, но имеют смутное представление об СХД и полках. СХД и полка похожи, но тем не менее между ними существенная разница.

СХД – система хранения данных – это не полка

СХД (система хранения данных) намного сложнее полки, они дороже и имеют значительно больше нюансов.

Отличие СХД от полки это наличие “Мозга”. Контроллеры СХД это мини-серверы, со своими процессорами, памятью и операционной системой. СХД собирают из дисков RAID массивы, и передают данные по протоколам высокого уровня (iSCSI, NFS), контролируют целостность данных, позволяют создавать снапшоты и многое другое. СХД нужна, если наша задача – построить отказоустойчивый кластер

Однако, в случае если мы просто хотим добавить дисков в сервер, наличие “мозга” создаёт сложности: Не все СХД понимают диски объёмом более 2Tb. Редкие СХД принимают от независимых производителей. Несмотря на то, что СХД полезное устройство – в этой статье мы не будем рассматривать использование СХД. Сегодня давайте разберёмся с полками.

Полка – это не СХД

Полка – достаточно простое устройство. Корпус, два блока питания, бэкплэйн и JBOD* контроллеры. Задача полки, без какой-либо обработки, передать данные из накопителя в адаптер (карту RAID или HBA). Любая полка поддерживает диски любого объёма и любого производителя. Всё решает карточка в сервере. Контроллер полки – это набор микросхем с жёсткой логикой.

Так выглядит подключение дисков внутри сервера

Так – подключение сервер + полка.

С точки зрения схемотехники (и операционной системы), диски, установленные в полку, ничем не отличаются от дисков установленных в сервер**.
Полка имеет отдельный корпус, отдельные блоки питания, но в обоих случаях подключение производится через RAID карточку, установленную в сервер – отличие лишь в том, что в случае с полкой кабель подключается не по внутреннему, а по внешнему разъёму.

*JBOD = Just A Bunch of Disks ( просто пачка дисков )
** Если быть совсем точным, полку можно сравнивать с сервером в котором установлен SAS экспандер – это серверы, в которых количество дисков превышает 8. Для операционной системы SAS экспандер не заметен.

Вот широко распространённый RAID контроллер LSI9260-8i
8i означает 8 внутренних портов SAS/SATA

А вот его брат LSI9280-4i4e

4 внутренних и 4 внешних порта

Как называется вот этот контроллер, я думаю, вы уже догадались )

Правильно – это LSI9280-8e.

Все эти контроллеры собраны на одном и том же чипе LSI2108. Они обеспечивают работу по протоколам SAS/SATA со скоростью 6Gb/s и “понимают” диски объёмом более 2Tb. Попутно замечу, что на этом чипе собраны RAID контроллеры в серверах Supermicro, Intel, IBM, DELL, Fujitsu и CISCO. Многие из производителей даже не утруждают себя разработкой собственной печатной платы – меняют только прошивку. Но впрочем, RAID и HBA – тема для отдельной статьи.

Вывод: если не хватает места для дисков – можно просто подключить к серверу полку. Новый сервер покупать не обязательно.

Ещё несколько нюансов:

  1. Полки бывают не только SAS, но и других типов, например, FC (скорее всего они вам не нужны).
  2. Полки могут быть 3, 6 и 12Gb/s. Не все знают, что в одном кабеле mini-SAS четыре канала. Это значит, что для вычисления скорости обмена полка-контроллер показатель 3,6,12 нужно умножить на 4, а в случае если полка и контроллер соединяются двумя кабелями, на 8. Для примера 3-х гигабитная полка сможет отдавать в сервер 3×4 = 12 Гигабит! Что очень неплохо, особенно, если вы устанавливаете шпиндельные накопители. Для работы диска с сервером важна не скорость передачи данных а количество операций ввода-вывода IOPS. Об этом читайте в пункте 7.
  3. Не важно Supermicro, IBM, DELL или HP. Любая SAS полка будет работать с любым SAS контроллером. Брэнд имеет значение только когда вы подключаете полку к СХД.
  4. Полки можно собирать в гирлянду – подключая к одному контроллеру сразу несколько полок.****** Если вы используете SATA диски, длина подключения не должна превышать 1М.
  5. При использовании SAS дисков (или SATA дисков с интерпозерами) можно подключать полку по двум путям, через два контроллера. Это позволяет избежать отказа в случае выхода их строя одного из контроллеров.
  6. Полки можно добавлять по мере роста количества данных, подключая их двумя путями
    “в гирлянду” вот так:
  7. SFF* полки ( обычно бывают 2U на 24-25 дисков)Для чего нужны SFF полки?Типичный сервер редко перекидывает большие блоки данных – в основном он производит хаотичные запросы чтения или записи маленьких блоков из совершенно разных мест массива. Скорость по этому показателю измеряется не в Гигабитах в секунду, а в количестве операций ввода-вывода (IOPS). И именно IOPS, а не трансфер основной параметр которому следует уделять внимание. Пользователи ПК сравнивают диски по показателям 3Gb/s, 6Gb/s, 12Gb/s, но зачастую, скорость потока диск – сервер это не Гигабиты, и даже не Мегабиты, а Килобиты! Скорости 3Gb/s, которую обеспечивают даже устаревшие интерфейсы в большинстве случаев достаточно. Сильно ошибаются те, кто думают, что улучшат производительность, сменив диски 3Gb/s на 12Gb/s. Если не изменился форм-фактор и обороты диска – скорость IOPS не измениться.На увеличение IOPS положительно влияют: увеличение оборотов, уменьшение физического размера, увеличение числа дисков в массиве.LFF диски, (особенно низкооборотистые 7200RPM) не предназначены на работу в режиме случайного доступа – их назначение хранение ColdData (например бэкапов)*SFF Small Form Factor – это диски 2,5” Обычно это высоко-оборотистые 10-15К SAS диски объёмом 300-1200GB. Не стоит путать их с ноутбучными дисками.
    LFF Large Form Factor – это диски 3,5” Обычно низко-оборотистые 7200 диски, объёмом 2TB и более.
  8. И наконец, если у вас уже есть СХД, добавив полку вы можете увеличить не только объём, но и существенно повысить скорость работы. Ведь показатель IOPS напрямую зависит от количества дисков.У нас имеются полки для наиболее распространённых СХД производства NetAPP, HP, Dell, IBM.

На этом всё.
Остались вопросы – звоните, будем рады помочь.

© OOO “Cерверы для профессионалов” 2015—2022
Перепечатка статей со ссылкой на источник разрешается и приветствуется.

Подключение дисковой полки к серверу

Появилась необходимость создать дисковое хранилище большого объема. Имеются диски 2.5 по 300,500 Гб из серверов HP ProLiant DL380 G7 (20 дисков).

Выбор пал на полку HP StorageWorks D2700, так же есть сервер Сервер HP ProLiant DL160R06 2xE5620 HP SATA/SAS (Rack1U XeonQC 2.4Ghz(12Mb)/6x4GbR2D/P410x256Mb/2xGigEth).

Прошу подсказать каким образом происходит подключение полки к серверу, подойдет ли существующий контроллер для полки, какие кабели необходимы.

К серверу с полкой будут подключаться 4-е сервера с vSphere 5 по iscsi.
Что лучше поставить в качестве ОС сервер с полкой? Какие коммутаторы нужно использовать?

Благодарю за ответы!

up: существующий контроллер в сервере не подойдет, нужен как минимум P411. контроллеры полки и сервера соединяются интерфейсными кабеля SAS между собой, при этом скорость передачи достигается 6Gb/s, большим количеством внешних выходов на контроллере можно получить большую скорость между полкой и сервера?

Как подключить дисковую полку к серверу

clop1000

Clone Grade Theta

  • Client: Eng

Karmael

Clone Grade Omicron

  • EVE Ingame: Silivalia
  • DUST Ingame: karmaell
  • Corp: exXMX
  • Ally: exIAC
  • Client: Eng

хорошая попытка, но нет

Denadan

просто жертва зеленых

  • EVE Ingame: denadanA
  • Ally: RED(offline)
  • Client: Eng

1. смотри документацию. скорее всего внешний сас или фц

2. нужен соответствующий контролер для сервера. очень желателен еще сан свитч, но если 1 сервер и 1 полка то можно и потерпеть. рейд функционал у подобного контроллера как правило в комплекте как побочный

3. да, как обычный внутренний. точнее ты на свитче(или схд, полки не умеют) нарезаешь диски на логические и уже логические отдаешь контроллеру

Ева — тебя все равно убьют

That’s not magic, that was just Pinkie Pie.

vmarkelov

Clone Grade Omicron

  • EVE Ingame: Kej Lacitis
  • EVE Alt: Kej Al'tos
  • Corp: Space Mechanics
  • Ally: Circle of Hell
  • Client: Рус

clop1000

Clone Grade Theta

  • Client: Eng

А в чем кардинальное различие между дисковой полков и ЦХД?

Дисковая полка насколько я понял — это тупо диски без контролера или с простым контролером которые вставляются в SAS контроллер с внешними портами в сервере?

Т.е. правильно понимаю что количество портов должно соответствовать колличеству дисков в дисковой полке?

Или сама дисковая полка может быть как RAID? (Именно дисковая полка, не ЦХД)

Karmael

Clone Grade Omicron

  • EVE Ingame: Silivalia
  • DUST Ingame: karmaell
  • Corp: exXMX
  • Ally: exIAC
  • Client: Eng

ты все не правильно понимаешь. назови полку.

полки в современном мире, подключаются к серверАМ через ХБА или оптику например. Что требует как минимум соответствующих контроллеров. Для обеспечения надежности, полки подключают как правило к двум серверам, и резервируют контроллеры, сиреч по два на сервак. В мануале к полке написано как именно подключать, т.к. там есть свои тонкости.

после подключения, через IP заходится на полку, выбирается тип рейда, и бьется на тома, после чего они детектятся на серверах как соответствующие диски.

там еще море всякого, если нужно, чтоб при смерти одного сервака, второй подбирал его тома

Тома опять жеж зависят от того, что будет крутится за фс, при GPFS например, требуется тонкая разбивка, тайбрекеры, с провижинингом вообще отдельный разговор

вопрос из серии, «я вчера забухал, а сегодня лететь на самолете, что там за кнопочки»

Denadan

просто жертва зеленых

  • EVE Ingame: denadanA
  • Ally: RED(offline)
  • Client: Eng

в том что полка работает только с физикой дисков отдавая всю логику на откуп принимающему. и нет все работает не так. это своеобразная «локальная» сеть, все по 1 кабелю. и свитчи. впрочем у полки обычно 2+ порта (для резервирования канала)

цхд полностью сама управляет дисками(в самом тупом варианте можно отдать и физический диск) собирая их в рейды и разбивая на логические диски как угодно отдавая эти самые логические. ну и плюс весь дополнительный обвес вроде бекапов и возможности подключения по другим протоколам(ntp, smb и прочие непонятные буковы)

Ева — тебя все равно убьют

That’s not magic, that was just Pinkie Pie.

Karmael

Подключение СХД к серверу: пошаговая инструкция

Если вы уже не первый год в бизнесе, то наверняка заинтересованы переходом на системы хранения данных. Об их функциях мы подробно рассказывали в другом материале, с которым также рекомендуем ознакомиться.

Здесь же остановимся на технической части. А точнее — на процессе подключения СХД к серверу предприятия. Чтобы все правильно работало, отвечало критериям безопасности, не вызывало проблем на дистанции. Тема объемная, затрагивает массу смежных протоколов и сервисов. Но если разобраться — ничего сложного.

  1. Общие сведения и определения
  2. Схема подключения СХД к серверу по SCSI, SAS, FC
  3. Полезные советы

Подключение СХД к серверу: пошаговая инструкция

 

Общие сведения и определения

Для начала давайте пройдемся по терминологии. Системы хранения данных (или сети хранения данных) в кругу специалистов принято именовать SAN (Storage Area Network). Основные компоненты SAN — накопители и контроллеры. Чтобы равномерно распределять нагрузку между дисками и серверами, не потеряв при этом в скорости и надежности, используют несколько путей ввода-вывода, не менее двух интерфейсов подключения и HBA (Host Bus Adapter) — выделенную плату-контроллер, которая связывает диски.

Связь между блоками обеспечивают коммутаторы. Они же отвечают за принадлежность к определенным ресурсам. Для этих целей у каждого SAN собственный WWN-адрес (World Wide Name), некий сетевой аналог MAC-адреса.

Подключение производят посредством LUN-интерфейса (Logical UNit). Это отчасти аналог раздела на жестком диске, но используемый для контроллеров. Благодаря такому подходу сервер видит LUN-диски как физические копии. Полезный подход, поскольку в дальнейшем через LUN можно подключить неограниченное количество физических и облачных мощностей в единую систему, формируя один полноценный диск. С него и будет раздаваться информация по серверам.

Распределение происходит через Disk Manager, или посредством утилит уровня LAN/SAN Mapping. Сам же хост LUN-интерфейс не видит.

Специалисты отмечают, что цеплять все имеющиеся LUN-ы на единый контроллер не стоит — быстро перегрузите систему. Всегда разделяйте мощности.

При создании СХД можно использовать как SATA, так и SAS-диски. Зависит от бюджета и потребностей.

Само же подключение SAN к хосту выполняется по следующему принципу:

  • физическая компоновка;
  • программная настройка.

И будь вы хоть трижды заслуженный админ с самым красивым бубном и хронически красными глазами (борода, само собой, должна быть длинной и окладистой), не забывайте действовать по инструкции. Производитель всегда кладет ее в комплект, чтобы минимизировать риски и снизить количество классических обращений в сервисный центр.

Схема подключения СХД к серверу по SCSI, SAS, FC

Опустим различия между производителями и сосредоточимся на сути. Основной процесс создания системы выглядит следующим образом:

  1. Установите контроллер HBA в свободный PCI-слот сервера.
  2. Подключите SAN к соответствующим интерфейсам, которые подразумеваются дисковым вместилищем (SCSI, SAS, FC).
  3. Настройте сетевое подключение, определите порты, используемые для оптической сети.
  4. Скачайте официальное ПО, если оно не предусмотрено в комплекте (зачастую это необходимо, потому как CD-привода в большинстве серверов давно нет).
  5. Инсталлируйте софт с дальнейшей регистрацией, если необходимо.
  6. Подключите HBA хоста и полку с дисками (стойку с накопителями) в одну подсеть на физическом свитче.
  7. Временно отключите файрволл во избежание ненужных ошибок и возмущений системы.
  8. Запустите программу сканирования СХД, которая определит топологию сети, а заодно покажет количество и номера устройств.
  9. Проведите регистрацию хоста на полке. Задачу можно произвести автоматически (рекомендуется), или руками через веб-морду.
  10. Введите IP хоста, привязав его к дисковой полке. Также не забудьте задать пароль администратора при первом старте.
  11. Зайдите в СХД и убедитесь, что все накопители нормально работают в режиме стандартных SCSI-устройств.
  12. Перейдите с помощью браузера к СХД по IP-адресу, а заодно убедитесь в наличии серверов, которые прошли регистрацию в массиве.
  13. Откройте вкладку с инициаторами, которые связывают блоки СХД с хостами. Дополнительно проверьте IP-адреса и, по необходимости, пропишите их вручную.
  14. Свяжите воедино хосты и LUN-ы, только последовательно.

Если все сделано правильно, то возле раздела с HBA появится соответствующая пиктограмма.

Как только разобрались с полкой, самое время перейти в программную часть и заняться настройками. Делается это не так, как на классических домашних ПК. Как говорится, есть нюансы.

Первым делом, необходимо разрезать диски на LUN-ы и оставить 1-2 ГБ свободного места на всякий случай. Далее переведите все накопители в статус «онлайн», но буквы никому не присваивайте — особенности работы. А вот форматировать стоит (NTFS. ExFAT или другой алгоритм на усмотрение администратора).

Завершаем настройку установкой HBA-драйверов под FC, SAS или SCSI.

На этом можно считать, что работы завершены. Системой можно управлять специализированным ПО от производителя, или благодаря веб-морде. Это не принципиально.

Полезные советы

Если вы создаете СХД с нуля, настоятельно рекомендуем закупить железо единого производителя. В идеале — одной серии. Так вы избежите 90% ошибок, нестыковок, проблем совместимости.

Дисковая полка нуждается в дополнительном источнике бесперебойного питания. Встроенный блок отвечает не за питание системы, а за корректную остановку действий в случае форс-мажоров. Не забывайте об этом.

Не стоит подключать к одному LUN-у несколько хостов, если не создаете кластер. Может возникнуть несогласованность записи, а это чревато повреждением целостности информации, чего мы всячески стараемся избежать.

И самое главное. При отсутствии опыта у штатных техников и администраторов, обращайтесь к аккредитированным специалистам. Это не та сфера, где можно по щелчку пальцев настроить все самостоятельно — большое количество смежного оборудования, коннекторов, плат управления и контроллеров. Специалисты Маркет.Марвел, имея большой опыт работы в этом направлении, помогут вам подобрать грамотную конфигурацию и оборудование для неё.

Также вы получите квалифицированную поддержку в момент запуска, и после истечения гарантийного срока. Поверьте: сохранность данных того стоит. Это как раз тот случай, когда эксперименты обходятся дорого.

Если у вас еще остались вопросы по эксплуатации СХД, вы всегда можете задать их нашим специалистам. Закажите консультацию, и мы предоставим вам всю требуемую информацию.

Разница между СХД и полкой и что такое JBOD

Давайте попробуем определить, что за устройство на картинке.
Правильно – по “морде” определить невозможно. Нужно смотреть на тыльную часть. И варианты могут быть разные:

B. Система хранения данных (СХД)

C. Дисковая полка SAS-1 c двумя контроллерами JBOD (HP MSA2000sa AJ750A)

Думаю, читатели данной статьи хорошо знают, что такое сервер, но имеют смутное представление об СХД и полках. СХД и полка похожи, но тем не менее между ними существенная разница.

СХД – система хранения данных – это не полка

СХД (система хранения данных) намного сложнее полки, они дороже и имеют значительно больше нюансов.

Отличие СХД от полки это наличие “Мозга”. Контроллеры СХД это мини-серверы, со своими процессорами, памятью и операционной системой. СХД собирают из дисков RAID массивы, и передают данные по протоколам высокого уровня (iSCSI, NFS), контролируют целостность данных, позволяют создавать снапшоты и многое другое. СХД нужна, если наша задача – построить отказоустойчивый кластер

Однако, в случае если мы просто хотим добавить дисков в сервер, наличие “мозга” создаёт сложности: Не все СХД понимают диски объёмом более 2Tb. Редкие СХД принимают от независимых производителей. Несмотря на то, что СХД полезное устройство – в этой статье мы не будем рассматривать использование СХД. Сегодня давайте разберёмся с полками.

Полка – это не СХД

Полка – достаточно простое устройство. Корпус, два блока питания, бэкплэйн и JBOD* контроллеры. Задача полки, без какой-либо обработки, передать данные из накопителя в адаптер (карту RAID или HBA). Любая полка поддерживает диски любого объёма и любого производителя. Всё решает карточка в сервере. Контроллер полки – это набор микросхем с жёсткой логикой.

Так выглядит подключение дисков внутри сервера

Так – подключение сервер + полка.

С точки зрения схемотехники (и операционной системы), диски, установленные в полку, ничем не отличаются от дисков установленных в сервер**.
Полка имеет отдельный корпус, отдельные блоки питания, но в обоих случаях подключение производится через RAID карточку, установленную в сервер – отличие лишь в том, что в случае с полкой кабель подключается не по внутреннему, а по внешнему разъёму.

*JBOD = Just A Bunch of Disks ( просто пачка дисков )
** Если быть совсем точным, полку можно сравнивать с сервером в котором установлен SAS экспандер – это серверы, в которых количество дисков превышает 8. Для операционной системы SAS экспандер не заметен.

Вот широко распространённый RAID контроллер LSI9260-8i
8i означает 8 внутренних портов SAS/SATA

А вот его брат LSI9280-4i4e

4 внутренних и 4 внешних порта

Как называется вот этот контроллер, я думаю, вы уже догадались )

Правильно – это LSI9280-8e.

Все эти контроллеры собраны на одном и том же чипе LSI2108. Они обеспечивают работу по протоколам SAS/SATA со скоростью 6Gb/s и “понимают” диски объёмом более 2Tb. Попутно замечу, что на этом чипе собраны RAID контроллеры в серверах Supermicro, Intel, IBM, DELL, Fujitsu и CISCO. Многие из производителей даже не утруждают себя разработкой собственной печатной платы – меняют только прошивку. Но впрочем, RAID и HBA – тема для отдельной статьи.

Вывод: если не хватает места для дисков – можно просто подключить к серверу полку. Новый сервер покупать не обязательно.

Ещё несколько нюансов:

  1. Полки бывают не только SAS, но и других типов, например, FC (скорее всего они вам не нужны).
  2. Полки могут быть 3, 6 и 12Gb/s. Не все знают, что в одном кабеле mini-SAS четыре канала. Это значит, что для вычисления скорости обмена полка-контроллер показатель 3,6,12 нужно умножить на 4, а в случае если полка и контроллер соединяются двумя кабелями, на 8. Для примера 3-х гигабитная полка сможет отдавать в сервер 3×4 = 12 Гигабит! Что очень неплохо, особенно, если вы устанавливаете шпиндельные накопители. Для работы диска с сервером важна не скорость передачи данных а количество операций ввода-вывода IOPS. Об этом читайте в пункте 7.
  3. Не важно Supermicro, IBM, DELL или HP. Любая SAS полка будет работать с любым SAS контроллером. Брэнд имеет значение только когда вы подключаете полку к СХД.
  4. Полки можно собирать в гирлянду – подключая к одному контроллеру сразу несколько полок.****** Если вы используете SATA диски, длина подключения не должна превышать 1М.
  5. При использовании SAS дисков (или SATA дисков с интерпозерами) можно подключать полку по двум путям, через два контроллера. Это позволяет избежать отказа в случае выхода их строя одного из контроллеров.
  6. Полки можно добавлять по мере роста количества данных, подключая их двумя путями
    “в гирлянду” вот так:
  7. SFF* полки ( обычно бывают 2U на 24-25 дисков)Для чего нужны SFF полки?Типичный сервер редко перекидывает большие блоки данных – в основном он производит хаотичные запросы чтения или записи маленьких блоков из совершенно разных мест массива. Скорость по этому показателю измеряется не в Гигабитах в секунду, а в количестве операций ввода-вывода (IOPS). И именно IOPS, а не трансфер основной параметр которому следует уделять внимание. Пользователи ПК сравнивают диски по показателям 3Gb/s, 6Gb/s, 12Gb/s, но зачастую, скорость потока диск – сервер это не Гигабиты, и даже не Мегабиты, а Килобиты! Скорости 3Gb/s, которую обеспечивают даже устаревшие интерфейсы в большинстве случаев достаточно. Сильно ошибаются те, кто думают, что улучшат производительность, сменив диски 3Gb/s на 12Gb/s. Если не изменился форм-фактор и обороты диска – скорость IOPS не измениться.На увеличение IOPS положительно влияют: увеличение оборотов, уменьшение физического размера, увеличение числа дисков в массиве.LFF диски, (особенно низкооборотистые 7200RPM) не предназначены на работу в режиме случайного доступа – их назначение хранение ColdData (например бэкапов)*SFF Small Form Factor – это диски 2,5” Обычно это высоко-оборотистые 10-15К SAS диски объёмом 300-1200GB. Не стоит путать их с ноутбучными дисками.
    LFF Large Form Factor – это диски 3,5” Обычно низко-оборотистые 7200 диски, объёмом 2TB и более.
  8. И наконец, если у вас уже есть СХД, добавив полку вы можете увеличить не только объём, но и существенно повысить скорость работы. Ведь показатель IOPS напрямую зависит от количества дисков.У нас имеются полки для наиболее распространённых СХД производства NetAPP, HP, Dell, IBM.

На этом всё.
Остались вопросы – звоните, будем рады помочь.

© OOO “Cерверы для профессионалов” 2015—2022
Перепечатка статей со ссылкой на источник разрешается и приветствуется.

Как подключить СХД к серверу

Алгоритм подключения системы хранения данных к хосту достаточно универсален. Безусловно, существуют нюансы настройки, которые зависят от конкретного оборудования и топологии вашей сети.

Подключение СХД к хосту делится на два этапа:

Перед началом внимательно ознакомьтесь с документацией производителя на полку. Она подробно описывает все действия. Пример документации от Oracle .

Техническая информация

SAN состоит из нескольких HDD и контроллеров. Для равномерного распределения нагрузки и обеспечения надёжности стараются использовать два HBA (Host Bus Adapter), несколько путей ввода-вывода, как минимум два интерфейса.

Главным правилом подключения СХД к хосту является использование как минимум двух связей и путей для каждого устройства.

Свичи обеспечивают для серверов доступ только к предназначенным им ресурсам. Для этого в SAN каждому интерфейсу и каждому LUN-у присваивается World Wide Name (WWN) — подобие MAC-адреса.

LUN — Logical UNit — с точки зрения контроллера — это аналог раздела на жёстком диске. Сервер видит их как физические диски. Можно подключить все хосты к одному диску или раздать LUN-ы по серверам.

Распределение выполняется в Disk Manager конкретного сервера или с помощью утилит (LAN Mapping, SAN Mapping и т.п) хосту принудительно запрещается видеть LUN.

Не вешайте все LUN-ы на один контроллер. Разделите особо нагруженные LUN-ы по разным.

При создании SAN можно использовать разные типы HDD. Помедленнее и подешевле, типа SAS или SATA, — для ОС сервера и файловых ресурсов; FC — для скоростных приложений и баз данных.

Алгоритм подключения

В сервер установите HBA-контроллер.

Подключите СХД с помощью кабелей соответствующих интерфейсам, установленным на дисковой хранилище (FC, SAS, SCSI) по вашей схеме.

Проведите настройку сети, правильно установите типы используемых портов для оптической сети.

Скачайте с сайта производителя ПО. Однако, оно может идти в комплекте, но это не обязательно.

Установите ПО. Пройдите регистрацию, если требуется.

Включите HBA хоста и дисковую полку в одну подсеть на одном физическом коммутаторе.

Запустите утилиту сканирования SAN для определения топологии. Она покажет все устройства и их номера.

Зарегистрируйте хост на полке. Это можно сделать с помощью утилиты или вручную через веб-интерфейс полки. Автоматически — корректней.

Введите в браузере IP-адрес хоста и сделайте привязку полки. При первом подключении может понадобиться создать пароль админа.

Зайдите в систему управления дисками на хосте, убедитесь, что подключенные диски видны. Они выглядят там как обычные SCSI.

Перейдите по IP-адресу СХД в браузере. Проверьте наличие серверов, регистрация которых уже выполнена.

Найдите вкладку с инициаторами, связывающими хосты с блоками СХД. Проверьте IP-адреса. Если нужно, перенастройте их вручную.

Свяжите LUN-ы и хосты. Действия типа: Create -> Connect LUNs -> Connect Hosts.

Посмотрите наличие отметки около HBA, сигнализирующей о корректности подключения.

На этом настройка полки закончена.

Нарежьте диски на LUN-ы. Их можно сделать много. Оставьте около 1 Гб свободного места

Переведите диски в режим онлайн. Буквы не присваивайте.

Отформатируйте диски в нужный формат, например, NTFS.

Установите драйверы HBA (FC, SAS или SCSI).

Подключение завершено. Можно управлять системой с помощью специального софта или через веб-интерфейс.

Рекомендации

Если СХД только создаётся, имеет смысл использовать оборудование одного производителя, чтобы избежать проблем с совместимостью устройств.

Во избежание всяких неприятных ситуаций лучше сразу обратиться к системному интегратору, например, к нам.

Это можно не делать, если у вас в штате есть несколько опытных и толковых администраторов, у которых много свободного времени. Хотя, по деньгам вы здесь вряд ли выиграете, так как их работа оплачивается, а также нужно будет приобретать нужные комплектующие и пытаться их «подружить».

Дисковая полка конструктивно состоит из жёстких дисков и источника бесперебойного питания. Его основная функция — не питать систему в случае отключения электричества, а предоставление возможности СХД корректно завершить все операции ввода-вывода при выключении полки. Поэтому, для защиты сторейджа по питанию устанавливайте ИБП.

По FC можно подключиться к коммутатору и тем самым расширить количество используемых устройств. На SAS нельзя повесить серверов больше, чем есть портов на массиве.

Покупайте полку сразу с дисками.

Не подключайте несколько хостов к одному LUN-у, если у вас не кластер. Такое соединение создает несогласованность записи, что приведёт к повреждению данных.

Сервис — очень важная вещь в СХД. Так как стоимость и масштаб потерь велики, не скупитесь, заключите договор с интегратором на обслуживание. В результате вы сэкономите время, нервы и, как ни странно, деньги.

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *