среда, 5 декабря 2012 г.

Изменения после апгрейда DS3500 до микрокода 7.84

Я уже писал про анонс новой прошивки для систем DS3500/DCS3700. Но стали возникать резонные вопросы – что из лицензируемых опций уйдет в прошлое, а что придется все равно докупать. Так как в комментариях картинки вставляются плохо, то ниже подробное описание.

Вот так выглядит состояние активированных дополнительных возможностей в стандартной DS3500 (“из коробки”):

Image(14)

Что мы имеем?

  • 4 Storage Partitions
  • 2 FlashCopy (классический снапшот)
  • поддержка до 96 дисков

Все остальное нужно докупать.

После апгрейда микрокода до версии 7.84 картина, как и ожидалось, меняется:

Image(15)

Что мы имеем?

  • 2 FlashCopy (классический снапшот)
  • 32 Enhanced FlashCopy (что это такое)
  • поддержка до 96 дисков
  • поддержка VolumeCopy

Больше не нужно приобретать лицензии на Storage Partiotions и VolumeCopy, а также есть приличное количество мгновенных снимков “из коробки”.

А Вот что осталось за дополнительные деньги:

  • увеличенное количество FlashCopy (лицензия Back up & Restore Option - до 512 снимков для DS3500);
  • зеркалирование, репликация на удаленную систему (Disaster Recovery Option);
  • High Performance Tier (Turbo Performance - для DS3500) - увеличивает производительность на запись (актуально на больших потоках и/или при использовании SSD);
  • Performance Read Cache - использование SSD в качестве кэша;
  • поддержка свыше 96 дисков (до 192 для DS3500).

Обратите внимание, что данные нововведения доступны только для микрокода 7.84 – если по каким-либо причинам возможности обновиться нет (например, ограничения по совместимости), то необходимо, как и прежде, приобретать лицензии на нужный функционал (даже если в новой версии он и бесплатен)!

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

четверг, 29 ноября 2012 г.

Еще немного новостей от IBM

Анонсирована прошивка ветки 7.84 для систем IBM DS3500/DSC3700. Вместе с новой прошивкой пришли и новые возможности. Начнем с новых ключей активации (программных опций в новом микрокоде):

  • Disaster Recovery Option – ключ дает возможность использовать не только привычное зеркалирование по FC, но и асинхронную репликацию по FC/iSCSI. Для DS3500/DCS3700 поддерживается до 16ти зеркальных пар по FC (ERM) и до 32 пар для асинхронных реплик. Для DCS3700+ (DSC3700 performance module) поддерживается 16 пар ERM и 128 асинхронных пар. Асинхронная репликация работает на базе PiT копий, что дает возможность задавать требуемое значение RPO. Это действительно большой шаг вперед – репликации по IP (без использования FC-IP гейтов) давно не хватало!
  • Backup and Restore Option – ключ, включающий максимум доступных “современных” снапшотов (512 для DS3500/DCS3700 и 2048 для DSC3700+). Ключ заменяет комбинацию Enhanced FlashCopy Base + Enhanced FlashCopy Upgrade. Я бы, если честно, рекомендовал бы сразу приобретать комбинацию из Enhanced FlashCopy и VolumeCopy – это может быть полезнее.
  • Performance Read Cache - еще одно мега-обновление, которое давно обещали. Это кэширование на SSD, да-да, теперь на системах DS3500/DCS3700 можно использовать SSD не только для хранения “быстрых” томов, но и для увеличения объема кэша. Так как SSD используется только на чтение, то нет никакой нужды делать из них отказоустойчивый массив. Насколько я успел почитать, работа системы с SSD в таком режиме мало чем отличается от работы с кэш-памятью, т.е. нет никаких супер-сложных алгоритмов по анализу нагрузки, а также нет и фоновой миграции данных на SSD. Разумеется, кэширование на SSD работает не всегда – если приложение пишет большие объемы данных или последовательно читает большие объемы, то эффект будет близкий к нулю. Однако для виртуализации (особенно VDI), Exchange, Web, СУБД эффект уже может быть весьма заметным. Можно начать с одной SSD и добавлять по мере необходимости. Кэширование осуществляется “централизованно”, т.е. кэшироваться будут различные тома в различных пулах. Для каждого конкретного луна можно принудительно отключить использование SSD.
  • Super Key – ключ полностью соответствует названию :) и включает в себя все вышеописанные возможности. Т.е. если хочется “полный фарш”, то это как раз нужная опция!

Кроме того, для Performance модулей DCS3700 появилась SAS карта (4 порта 6Gbit), а также iSCSI 10Gbit карта (2 порта). Таким образом, на Performance модуле можно получить следующие комбинации портов: 8*FC, 4*FC+4*SAS, 4*FC+2*iSCSI (в расчете на один контроллер).

Доступность прошивки ожидается к 7 декабря 2012г.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 13 ноября 2012 г.

NetApp не стоит на месте–обновленный midrange FAS3220/FAS3250

Мне, с самого ее анонса, очень не нравилась модель NetApp FAS3210. Почему? Ведь это настоящий мультипротокольный MidRange, который поддерживает до 240 дисков и кучу крутых “фишек” от NetApp, скажете вы! Однако, при всех замечательных возможностях, система вышла, честно говоря, “так себе”. Основное ограничение – только два слота расширения. И это действительно проблема для тех, кто хочет получить масштабируемую систему – а зачем иначе брать midrange? Поставить FlashCache на 3210 тоже проблематично – постфактум всплыл ряд проблем, связанных с нехваткой памяти, поэтому заказывать FlashCache с определенного момента вообще стало нельзя. По этим причинам я всегда советовал либо FAS2000, либо FAS3240, который лишен указанных недостатков, и всячески отговаривал от FAS3210.

Буквально несколько дней назад ситуация радикально поменялась – были анонсированы две новые системы FAS3220 и FAS3250. Первая пришла на смену FAS3210, а вторая – на смену FAS3240. Что же изменилось?

image

Конечно обе системы получили более производительные контроллеры – в два раза больше процессорных ядер по сравнению с предшественниками. Кроме того, увеличился и объем памяти – он стал 24GB для FAS3220 и 40GB для FAS3250. Увеличился и объем NVRAM (3.2GB для FAS3220 и 4GB для FAS3250). Обратите внимание, что FAS3220 получил процессорную мощность, аналогичную системе FAS3240, а памяти даже на 8GB больше! FAS3250, в свою очередь, имеет в 2 раза больше ядер, чем FAS3270 (правда менее производительных) и такой же объем памяти.

Как обычно, отличается максимальное число дисков, которые можно подключить к системе – 240 (FAS3220), 720 (FAS3250) и 960 (FAS3270). С версии ONTAP 8.1.2 все СХД FAS3200 поддерживают до 240 дисков SSD.

Разумеется, теперь в младшую систему можно ставить FlashCache карты и использовать FlashPool (SSD+HDD в агрегате). Возможности FAS3220 соответствуют FAS3240 (1TB FlashCache на HA пару, либо 1.2TB SDD в FlashPool, либо 1.2TB комбинированно). FAS3250, как несложно догадаться, “догнал” FAS3270 - 2TB FlashCache на HA пару, либо 2TB SDD в FlashPool, либо 2TB комбинированно.

И, да, избавились от самого главного ограничения в FAS3210 – теперь в FAS3220 можно заказать контроллер с модулем ввода-вывода (IOXM), что дает нам до 6ти слотов на контроллер (12 слотов на систему). А это уже дает полет для фантазии в развитии системы хранения по мере роста требований к ней. А для FAS3250 вообще отказались от конфигурации без IOXM, что на мой взгляд очень правильно - правильный выбор можно и навязать! :)  С другой стороны, остается возможность заказать одноконтроллерную конфигурацию (вот зачем только?).

Также для FAS3250 сразу нужно выбрать одну из плат расширения для подключения хостов – либо 10Gbit Ethernet, либо 8Gbit FC.

“Набортные” порты никаких изменений не претерпели – как и прежде, это 4*GbE, 4*4Gbit FC, 4*6Gbit SAS на двухконтроллерный вариант.

Таким образом, две новые системы замечательно закрывают все потребности в сегменте midrange СХД. А если нужно что-то более производительное, то стоит обратить внимание либо на возможность объединения систем в кластер, либо на старшую линейку FAS6200.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

пятница, 9 ноября 2012 г.

Пополнение у СХД начального уровня IBM–Storwize V3700

На этой неделе в IBM сделали еще один шаг к созданию целостной линейки систем хранения данных. Была анонсирована система хранения IBM Storwize V3700, которая, как явно следует из названия, является более бюджетным вариантом Storwize V7000. Действительно, V7000 или V7000 Unified далеко не всегда могут попасть “в бюджет” заказчику, хотя их функционал и идеально вписывается в проект. Поэтому выпуск более бюджетного варианта является отличным ходом!

image

Давайте посмотрим, что именно IBM предлагает заказчикам V3700:

  • Красивый :) интерфейс! Он уже стал привычным для владельцев таких СХД как V7000, SVC или XIV, теперь можно им пользоваться в системе с ценой меньше 20k$. Интерфейс удобный (если нет желания работать в CLI), если никогда не встречали его раньше, посмотрите ролик в этом посте.
  • Виртуализация внутреннего дискового пространства. Вместо традиционных RAID-групп используются дисковые пулы.
  • Выделение дискового пространства по мере необходимости – thin provisioning. (Когда же будет доступна рекламация дискового пространства?)
  • Функционал FlashCopy в том варианте, в котором он есть в “старших” системах. До 64х снимков на систему.
  • Производительность – по формальным показателям V3700 опережает DS3500 (хотя и отстает по максимальному объему дискового пространства).
  • Миграция данных с имеющихся систем хранения (по FC). Миграция возможна только в одну сторону – для миграции данных с V3700 куда-нибудь еще придется использовать сторонние средства. Хотя, кто же захочет мигрировать данные на другую систему?!
  • Поддержка до 120 дисков 2.5” или до 60 дисков 3.5”. К контроллерной полке можно подключить до 4х полок расширения. И контроллерный модуль и дисковая полка занимают в стойке 2U и поддерживают либо 12 дисков 3.5”, либо 24 диска 2.5”. Миксовать полки можно в любой последовательности.
  • Поддержка 4х портов 1Gbit iSCSI “в базе” (по 2 порта на контроллер).
  • Дополнительно можно установить в каждый контроллер интерфейсную плату. Это может быть либо 4 порта 1Gbit iSCSI, либо 2 порта 10Gbit iSCSI/FCoE, либо 4 порта 8Gbit FC. Разумеется в оба контроллера нужно устанавливать одинаковые платы.
  • Возможность апгрейда кэш памяти – вместо “стандартных” 4GB на контроллер можно поставить 8GB (16GB на систему хранения).

Кстати, обратите внимание, что SAS порты имеют интерфейс mini SAS HD:

image

Но, помимо стандартных возможностей, есть и перспективы, о которых также было объявлено. Чего стоит ожидать от V3700 в некоторой перспективе (не факт, что все это действительно случится – это только “statement of direction”):

  • Поддержка SAS подключения к серверам. Самое интересное, что данная поддержка будет включаться бесплатным апгрейдом микрокода. Сами SAS порты уже есть на контроллере (см. картинку выше) – только один из них используется для подключения дисковых полок, а остальные в настоящее время не задействованы.
  • Поддержка Easy Tier – динамическая миграция “горячих” блоков данных с обычных дисков на SSD для повышения производительности системы.
  • Поддержка репликации на удаленную СХД. Действительно, сегодня без этого даже система начального уровня выглядит “недоделанной”! Будет ли поддержка репликации на V7000 или на SVC пока не известно, но это стало бы дополнительным плюсом при выборе V3700.
  • Поддержка до 2040 снимков (FlashCopy) на систему.

Но ведь не может же быть все так прекрасно? Наверняка же есть какой-то подвох и V3700 не умеет что-то очень важное и нужное? Конечно, система начального уровня не может обладать всеми возможностями старших братьев, иначе она и не стоила бы дешевле.

Чего же IBM НЕ предлагает владельцам V3700?

  • Компрессия – если хочется компрессии, то потребуется либо отдельный appliance (и они у IBM конечно есть), либо V7000 или SVC.
  • Виртуализация сторонних СХД. Хотя миграция и поддерживается, но виртуализации в V3700 не будет. Если хочется расти, то можно подключить V3700 к V7000 или SVC.
  • Объединение систем в кластер.
  • Поддержка NAS – unified системы не ожидается.

Критичны ли эти “не” для малого бизнеса, в котором V3700 будет первой системой хранения данных? Интерес может представлять unified и компрессия, но обе эти возможности далеко не бесплатны, поэтому я не уверен, что они стали бы популярны в связке с V3700.

Система, на мой взгляд, получилась очень интересная, особенно когда все планы по расширению функционала будут реализованы!

Интерфейс V3700 в действии

V3700 доступна к заказу с 23.11.2012 – обращайтесь к нам и наши инженеры помогут подобрать систему с необходимыми характеристиками для ваших задач. Мы можем проанализировать имеющуюся нагрузку на дисковую подсистему (и не только) и поможем правильно выбрать систему, чтобы она оправдала все ожидания!

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

среда, 22 августа 2012 г.

NetApp: кэшируем в сервере

Всего пара месяцев прошла с момента официального объявления о сотрудничестве Fusion-io и NetApp с целью использования технологий Fusion-io в стеке NetApp Virtual Storage Tier.
На сегодняшний день в VST используются “родные” технологии NetApp – FlashCache и FlashPool, позволяющие эффективно повышать производительность системы посредством интеллектуального кэширования “горячих” данных на Flash-картах и SSD дисках.
И вот уже вчера NetApp анонсировал продукт Flash Accel, обеспечивающий кэширование данных на стороне сервера. Как несложно догадаться, Flash Accel это по факту PCI-e карта и соответствующий софт от Fusion-io. Кэширование на стороне сервера возможно только на чтение (что вполне логично). Доступность Flash Accel заявлена на декабрь 2012. Flash Accel является программной разработкой NetApp, позволяющей использовать в качестве кэша локальные устройства сервера (SSD или Flash PCI-e карты). В первой версии будут поддерживаться Windows Server 2003 и 2008, а также vSphere 5. Примечательно, что даже в первой версии обещают работу HA, vMotion и DRS. Формально есть привязка к системе хранения (пока только FAS, V- и N-серия), но не к кэширующему устройству (будет список официально поддерживаемых). На текущий момент NetApp будет перепродавать карты от Fusion-io. 
Но этим же пресс-релизом NetApp тонко намекает Fusion-io, что расслабляться не стоит – желающие производители аналогичных решений могут подать заявку на получение значка “NetApp Validated”. И в этом списке уже, помимо Fusion-io, отметились LSI, Micron, SanDisk, STEC и Virident.
Но пока только с Fusion-io заключен контракт, согласно которому будут перепродаваться Fusion-io ioMemory, ioTurbine и Direct Cache. 
К слову сказать, у нас уже доступен к заказу LSI Nytro XD. Это комплект из PCI-e карты с 400GB флэш-памятью (e-MLC) и специального софта, который и позволяет осуществлять кэширование данных (независимо от расположения – будь то СХД или DAS). Среди серьезных преимуществ – крайне низкие требования драйвера устройства к оперативной памяти (рассматривая в качестве альтернативы решение Fusion-io об этой особенности важно помнить). Пока еще, правда, не поддерживается работа в среде VMware, но и это тоже не за горами – работа активно ведется.
Кэширование данных на серверах перестает быть красивой идеей и уже может быть использован в реальных проектах с получением вполне очевидных преимуществ по производительности.

P.S. Спасибо Роману за уточнение!
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

пятница, 8 июня 2012 г.

IBM DS3500/DCS3700: радикальные изменения

Как многие вероятно уже слышали, у IBM в этот понедельник прозвучало множество анонсов в области систем хранения. В той или иной степени были затронуты практически все линейки. В этой заметке я коснусь только лишь младших систем – DS3500 и DCS3700.

image

Большинство новинок носит принципиальный характер. Итак, новинки:

  • дисковые пулы (Dynamic Disk Pooling, DDP);
  • выделение дискового пространство по мере необходимости (Thin provisioning);
  • новая технология мгновенных снимков;
  • поддержка VAAI;
  • поддержка ALUA;
  • временные лицензии.

В чем плюсы, как это работает и что с этим всем делать? Попробуем пройтись по всем новинкам.

Динамические дисковые пулы.
Вместо привычных RAID массивов (Array) и томов на них (Volumes, LUNs), мы объединяем диски в большой пул и уже на этом пуле “нарезаем” тома нужного нам размера. Мы больше не привязаны к размерам конкретного массива, поэтому нам не нужно планировать массив так, чтобы наиболее эффективно его заполнить – все равно черпаем из “общего” котла. Нет ни выделенных дисков четности, ни выделенных hot-spare дисков.

image

Ну хорошо, схожие технологии мы видели и у других производителей, а в чем же отличие? Давайте посмотрим, как работает DDP. Каждый диск разбивается на 512МБ “дольки” (D-Piece) – см. рисунок ниже. Когда нам требуется выделить место из дискового пула для конкретного тома, система выбирает 10 таких “долек” с разных дисков (выбирает она так, чтобы выровнять занятый объем). Выбранные дольки объединяются в RAID-6 (8D+P+Q) и уже этот страйп (D-Stripe) размером 4ГБ и становится частью нашего тома с данными. D-Stripe для одного тома располагаются по разным дискам, обеспечивая, таким образом, распределение данных по всему пулу:

image

DDP не становятся заменой какой-либо технологии – можно использовать только один пул, можно использовать несколько пулов в одной системе, можно использовать и классические RAID-группы, и пулы вместе. Так как пулы по производительности все-таки ближе к RAID-6 и максимальную эффективность показывают на дисках NL SAS, то данные для приложений, критичных к скорости можно вынести, например, на отдельные RAID10.

В случае сбоя одного из дисков в пуле, происходит восстановление данных на оставшиеся диски. За счет того, что в восстановлении участвует большое число шпинделей, оно происходит с большей скоростью и оказывает меньшее влияние на производительность массива. Вместо выделенных hot-spare дисков резервируется соответствующее свободное место в пуле (примерно так, как это реализовано в HP EVA). Можно зарезервировать до 10 дисков (или до 20% объема пула). Вот как изменяется время восстановления в зависимости от числа дисков в пуле по сравнению с перестроением классического RAID6:

image

На 192х дисках различие превышает 5 раз! А при временах порядка 10 часов это весьма заметно. Не стоит забывать, что при восстановлении классического массива деградация производительности также весьма велика:

image

Хорошо видно, что во время ребилда диска в большом пуле, производительность приложений будет страдать заметно меньше (особенно если не ставить целью провести перестроение максимально быстро).

Конечно, раз уж речь зашла о производительности, то хочется сразу уточнить, а насколько такая новая технология “портит нам жизнь” в плане этой самой производительности? Результаты показывают, что максимально “страдают” операции случайной записи и последовательного чтения(~15%); случайное чтение же ухудшается всего на 6%, а последовательная запись даже улучшается. Такие эффекты заметны в “синтетических” тестах на 192х дисках в пуле. Если же количество дисков меньше, то и различие в производительности приближается к нулю.

Еще один замечательный плюс от DDP – возможность добавления дисков в пулы. Вы скажете что в RAID тоже можно добавить дисков? А сколько “за один раз”? А чем это чревато с точки зрения производительности? Вот именно – лучше этого на обычном массиве не делать. При добавлении же в пул новых дисков, происходит миграция незначительного числа “D-Piece” на новые диски, что не оказывает, в свою очередь, существенного влияния на производительность системы.

Таким образом, динамические пулы дают нам отличную замену для RAID6, позволяя объединить большое количество дисков, обеспечивая высокую производительность, простоту управления и высокую защищенность.

Thin provisioning.
Данная технология уже хорошо всем известна, но теперь она появилась и в младших СХД IBM. Причем появится и у тех, кто год назад стал владельцем системы DS3500. Единственное “но” – thin provisioning работает только на динамических томах! Поэтому “поиграть” на системе, не создав заранее дисковый пул, увы, не получится. Плюсы у thin provisioning очевидны – не нужно задумываться о точности выделения дискового пространства. Можно выделить немного больше, а по факту на дисках будет занято ровно столько, сколько данных было записано. На самом деле, с шагом 4ГБ конечно – выделение дискового пространства осуществляется в терминах D-stripe. Экономия от использования технологии thin provisioning может быть колоссальна – проверьте на своих системах, сколько незанятого места теряется впустую?

Новые мгновенные снимки.
Еще одна давно ожидаемая возможность. Долгие годы владельцы систем IBM DS3000/4000/5000 вынуждены были мучиться с восстановлением данных из снапшота (невозможно сделать операцию rollback, вернее возможно, но очень “некрасиво”). И вот, новых снапшотов можно сделать не просто заметно больше, но и можно быстро “откатиться” из снапшота на исходном томе. Также появляется возможность использовать группы консистентности, а это очень полезно, когда данные одного приложения находятся на различных дисках:

image

Rollback в рамках группы консистентности также работает! Несомненным плюсом стала оптимизация операций копирования исходных блоков в рамках технологии Copy-on-Write. Если раньше для каждого снимка происходило копирование исходного блока данных, то сейчас копия делается только единожды. Это существенно снижает эффект от деградации производительности при использовании мгновенных снимков. Падение производительности для “классических” CoW снимков может составлять десятки процентов. Сейчас эта проблема должна быть решена, что позволит использовать снимки и в более нагруженных средах.

Поддержка технологии VAAI.
Многие рассматривают VAAI исключительно как средство повышения производительности в среде VMware, но я бы скорее делал бы упор не на скорость выполнения отдельных операций (хотя это, без сомнения, приятно), а на разгрузку хоста от “лишней” работы и разгрузку сети хранения. Клонирование виртуальной машины с использованием VAAI может быть закончится и не на много быстрее, но зато канал ввода-вывода между сервером и СХД будет загружен в разы меньше и наше клонирование не окажет пагубного влияния на остальную инфраструктуру (особенно если мы используем 1Gbit iSCSI). В рамках VAAI поддерживается – блокировка экстентов в VMFS, write zeroes (write same) и extended copy (клонирование VM, Storage vMotion). Время выполнения операций с VAAI и без оного (кликабельно):

image

Поддержка ALUA.
Наверное многим доставляли проблемы active/passive пути? А потом еще приходилось вручную возвращать диски на “свои” контроллеры после каждого сбоя. Благодаря ALUA (Asymmetric Logical Unit Access) об этих неприятностях можно спокойно забыть. Чтобы было более понятно, пара картинок. Вот как работает multipath в DS3500 сегодня:

image

А вот как он будет работать в новой прошивке:

image

 

 

 

 

 

 

 

Наибольшие преимущества от ALUA заметны в кластерной среде, когда время failover при проблемах на контроллере играет критичную роль. Поддержка ALUA есть во всех ключевых операционных системах.

Временные лицензии.
До настоящего момента было очень сложно оценить “полезность” дополнительного функционала систем DS3500. Если мгновенные снимки можно было попробовать, то репликацию проверить было фактически невозможно. Решение о покупке (с бюджетом, сопоставим со стоимостью контроллерного модуля)  нужно было принимать на основе обещаний, книжек или еще чего-то там. Теперь можно будет установить временную лицензию на 90 дней и проверить работу в своей среде, со своими приложениями. Указанных 90 дней, в принципе, должно хватить не только чтобы проверить функционал, но и для того чтобы заказать постоянные ключи и дождаться их прихода.

Вот такие замечательные новинки были представлены IBM для систем начального уровня. Я, честно говоря, ожидал немного большего, но и это уже очень и очень хорошо. Развитие систем не останавливается – будут и другие новшества, но позднее. Все, о чем я написал, будет доступно в прошивке, которая анонсирована на 15 июня. По факту, скорее всего, скачать ее можно будет на несколько дней позднее, но шанс попробовать все возможности уже в этом месяце безусловно есть!

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

понедельник, 28 мая 2012 г.

EMC VNX–что день грядущий нам готовит

Я уже писал про новости в high-end системах EMC, но гораздо более интересным для меня является анонс новых возможностей систем среднего уровня – VNX. И дело не в том, что такие системы гораздо больше распространены и в разы больше продаются. Речь о тех технологических возможностях, которые в них появятся. Да, несмотря на анонс, их пока нет и ждать их стоит во втором полугодии 2012. Так что же было объявлено?

Если кто-то вникал, как именно работают пулы (pools) в VNX, то наверняка обратил внимание на “магические” числа. Это, в частности, число “5” для RAID5 и “8” для RAID-6. Дело в том, что при создании пулов, именно такой размер RAID-группы всегда старается выбрать система. Конечно, если дисков недостаточно, то пул все равно будет создан, но  в одной из RAID-групп дисков будет недостаточно (или слишком много), а это скажется на равномерность нагрузки. Подробности можно прочитать вот в этой замечательной заметке, либо в ее переводе здесь. Таким образом, для RAID5 эффективность использования дискового пространства составляет 80%, а для RAID6 – 75%. В новой версии было принято увеличить размер дисковых групп – для RAID5 он может составлять 8+1 (эффективность 88.9%), а для RAID6 даже 14+2 (эффективность 87.5%). С одной стороны, это позволит несколько повысить эффективность использования дисков. С другой стороны, планирование системы становится еще более творческим занятием. Предположим, что нам нужен пул из NL SAS дисков. Логично использовать RAID6 и, как следствие, мы вынуждены использовать 17 дисков (одна группа 14+2 и пригодится хотя бы 1 hot-spare диск). Если же нужно увеличить объем системы, то дисков нужно уже 33 (а лучше бы 34). И здесь мы сталкиваемся с тем, что уместить 34 диска в дисковые полки по 15 дисков довольно проблематично, а значит потребуется 3я полка, которую мы также не сможем заполнить. В любом случае, выбор “большой” RAID группы накладывает определенные ограничения на апгрейд системы (в плане стоимости такого апгрейда). Конечно, есть полки высокой емкости, но и там диски “ровно” не укладываются.

Такими изменениями производитель нам как бы сам намекает, что оставшееся место самое время заполнить дисками SSD, чтобы использовать все прелести FAST Cache или FAST VP. И здесь мы сталкиваемся с новым изменением – в пул можно будет включать RAID-группы разного типа, т.е. в пул с  RAID6 из NL SAS дисков можно спокойно подключить RAID5 из SSD дисков (сейчас пользователь вынужден использовать только один тип RAID внутри пула, независимо от типа дисков).

image

Изменения коснулись и технологии FAST VP – в новом релизе данные будут сначала попадать на SSD, а уже потом перемещаться на более медленные диски. Такой подход имеет свои плюсы и минусы, но зато позволяет получить немедленный видимый эффект от использования SSD. И становится заметно проще демонстрировать преимущества от FAST VP заказчику – достаточно немного нагрузить систему. Фактически, технология FAST VP становится более похожей на FAST Cache (хотя отличия, несомненно, остаются).

В упомянутой выше статье было много сказано про недостатки пулов в VNX, связанные с расширением дискового пространства. Похоже, что и эту проблему в EMC не обошли своим вниманнием – помимо уже описанных новшеств, нас ждет еще и автоматическая ребалансировка внутри пула. При добавлении дисковых групп в общий пул, произойдет перераспределение данных по пулу. С одной стороны, это очень хорошо – добавили диски и увеличили производительность, а не только объем. С другой стороны, перераспределение занимает время и нагружает контроллеры. А как обычно происходит? Диски добавляем, когда уже и места нет, и производительность ниже необходимой. Планируйте своевременно апгрейды! (Это правило, кстати, относится не только к EMC, но и ко всем другим системам).

Ну и самое радикальное новшество – на пулах появятся новые снапшоты! Это действительно принципиальное изменение (и я понятия не имею, почему еще все производители, которые так рекламируют thin provisioning, не начали так делать). Появляются снапшоты, работающие по технологии redirect on write. Т.е. больше нам не нужно резервировать отдельное место под мгновенные снимки и системе не нужно копировать “старые” данные в этот резервный пул. В случае redirect on write новый блок данных (после создания снимка) просто записывается в новое место, а LUN “собирается” на основе указателей. Т.е. примерно так, как это реализовано в NetApp или в IBM XIV. А это дает существенные преимущества – до 256 снимков на том, нет потери производительности из-за использования снимков, возможность делать снапшоты снапшотов, доступность снапшотов на запись. Да, да -  извечные противники в плане технологий стали еще ближе друг к другу! Если NetApp выступает своего рода первопроходцем, то EMC идет по намеченному курсу, делая нужные изменения (не факт что в нужный момент, но зато не приходится растрачиваться на рекламу новых фишек – публика уже “подогрета” рассказами NetApp).

Но гонка с NetApp на снапшотах не закончена и у VNX появляется еще один дополнительный программный продукт – AppSync. Он предназначен для защиты приложений (на старте - Exchange и VMware, потом планируются и другие). Пользователь задает уровень доступности  (SLA) для конкретного приложения и может самостоятельно восстанавливать данные в случае сбоя.

Большинство из объявленных новшеств доступны только в системах VNX, а владельцам VNXe придется подождать – из-за особенностей реализации блочных протоколов в VNXe.

Посмотрим, что готовят конкуренты в ответ!

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 22 мая 2012 г.

EMX VMAX 40K

imageКак обычно, громко и шумно EMC анонсировали новую high-end дисковую систему. На смену VMAX и VMAXe пришли аж целых три системы - VMAX 10K, 20K и 40K. Правда, здесь есть и небольшой подвох - 10K и 20K вроде как никуда и не пришли. А не пришли они из-за того, что никуда и не уходили - это уже хорошо знакомые нам VMAXe и VMAX, только с новыми названиями. Действительно, в прошлый раз маркетологи в EMC явно перемудрили и назвали все модели новыми именами (VMAX, VPLEX, VNX...), но никто не побеспокоился о том, что же делать, если потребуется все-таки их немного усовершенствовать - процессоров там добавить, либо еще что-нибудь прикрутить. Вот и пришлось теперь менять название. Что касается новой “звезды” в лице VMAX 40K, то из “железных” изменений все довольно ожидаемо - более современные шестиядерные процессоры (2.8ГГц Westmere), больше кэш памяти плюс шина PCI express 2.0:

 image

За счет этого добились (по заявлениям) двукратного роста производительности в бэкенде и на линейных нагрузках “снаружи”. Что касается OLTP нагрузки, то здесь декларируется примерно 25% роста. Без изменений осталось максимальное поддерживаемое количество дисков 3.5” (2400), но зато можно использовать до 3200 дисков форм-фактора 2.5” (причем их можно установить до 400шт в стойку). Как и прежде, используется FC бэкенд и FС диски. Кроме EMC и HP (3PAR) в системах high-end c FC дисками никого не осталось - IBM и Hitachi уже давно перешли на SAS. Существенное ограничение - нельзя смешивать в одной системе диски 2.5” и 3.5” (не только в одном шкафу, но и вообще во всей системе). Нельзя и проапгрейдить 10K до 20K, а 20K до 40K, так что, несмотря на схожесть названий, эти системы разделены жестким барьером и пользователь не имеет возможности вспрыгнуть на подножку стремительно уходящего поезда прогресса, зацепившись за “младшую” систему. Хотите перспективы - берите сразу 40K.

Видимо в EMC получили ряд нареканий о том, что затруднительно бывает разместить монстра VMAX в ЦОД из-за нехватки площадей, поэтому сейчас можно “разбросать” части VMAX 40K (опять же, только 40K!) по ЦОД (в пределах 25м).

Если с точки зрения железа все, как я и написал, ожидаемо и логично, то в софте добавилось возможностей несколько больше. Самое заметное - Federated Tiered Storage (FTS). Говоря простыми и понятными словами, это виртуализация внешних (сторонних) СХД. “Сторонних” звучит, правда, несколько натянуто - на первом этапе поддерживаются только Symmetrix DMX-4, DMX-3, DMX, CLARiiON CX4 / CX3, VNX и (вот же она, “сторонняя система”!) Hitachi USP-V. Список конечно весьма и весьма скромен, да и виртуализация динозавра в лице DMX3 (а и USP-V тоже) выглядит довольно - нужно дважды заплатить за лицензии на емкость - сначала за емкость самого DMX3, а потом за нее же, но уже в ценах для VMAX. Однако хочется надеяться, что список протестированных и поддерживаемых устройств будет расти. Виртуализованная емкость может использоваться со всеми замечательными функциями (FAST VP, TimeFinder, SRDF, VLUN). В этом плане VMAX выглядит, на мой взгляд, даже немного интереснее, чем VPLEX. С другой стороны, получается соревнование по функционалу между двумя “топовыми” продуктами одного производителя. Уж лучше бы сделали “VMAXPLEX”, который бы обладал преимуществами обеих систем! Из приятного - Federated Tiered Storage доступен не только на VMAX 40K, но и на 20K (напомню, что это нынешний VMAX).

Для FAST VP появилась возможность интеграции с SRDF и теперь на удаленной площадке система в курсе о том какие блоки должны лежать на быстрых дисках, а какие - нет. Теперь при переходе на резервную площадку можно надеяться на сопоставимую производительность (если конечно системы на площадках идентичны).

Перевод всех бородатых администраторов на простой и понятный GUI продолжается, поэтому теперь можно управлять VMAX из красивого Unisphere (правда, с приставкой “for VMAX”).

Программные улучшения коснулись в том числе и интеграции VMAX с RecoverPoint (поддержка сплиттера на уровне СХД).

Получилась ли принципиально новая система? Не уверен – подавляющее число новшеств это либо результат планового развития архитектуры x86, либо усовершенствования очередного релиза Enginuity. Остается открытым и вопрос узких мест – апгрейд узлов и увеличение дисков в бэкенде на 33% привели лишь к 25% росту производительности (OLTP). А как на производительность будет влиять FTS? Подрастет ли производительность за счет кэша VMAX или, напротив, подрастет только латентность? Если FTS позволяет использовать возможности VMAX на системах класса ниже, то смогут ли разработчики перенести эти возможности в VPLEX (ах, как этого недостает!)?

Как обычно, много вопросов на которые мы сможем найти ответы лишь по прошествии некоторого времени и (ведь такое хотя и маловероятно, но тоже может случиться!) каких-то публичных тестов. Но это я уже совсем размечтался наверное!

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

понедельник, 13 февраля 2012 г.

Кэшировать всегда, кэшировать везде!

Уже во время анонса системы IBM XIV Gen3 было объявлено о скорой поддержке SSD внутри модулей. “Скоро” уже настало и вот теперь можно не только заказать новый XIV Gen3 с установленными SSD дисками, но и установить SSD в уже инсталлированную систему XIV Gen3 (процедура не требует остановки – только обновления микрокода). В каждый узел XIV можно установить по одному диску SSD 400GB (суммарно это даст от 2.4ТБ до 6ТБ на систему, размер немного занизили – изначально обещали диски по 500GB). Почему так мало? Потому что это пространство может быть использовано только как кэш чтения, а не для хранения самих данных, а 6ТБ кэш памяти это не так уж и мало. Кэшируются только операции чтения – для кэширования операций записи используется оперативная память узлов XIV (суммарный объем которой достигает 360GB). Чтобы обеспечить для SSD модулей долгое и безоблачное существование под высокой нагрузкой используется специальный механизм оптимизации: изначально в оперативной памяти узла формируются блоки размером по 512КБ и уже именно эти блоки последовательно и циклично записываются на SSD. Таким образом, операции записи на SSD всегда идут последовательно, а ячейки используются равномерно. Обещают неплохой прирост в производительности:

image

Решение, предложенное в XIV безусловно не является технологическим прорывом – всем уже вспомнился и EMC FastCache, и NetApp FlashCache. Каждое из этих решений имеет и свои плюсы, и свои минусы. От EMC FastCache заказчик получает не только кэширование при чтении, но и кэширование операций записи. Платой за это является существенное сокращение кэша в оперативной памяти SP и сравнительно небольшой объем – для “топового” VNX7500 он составляет 2.1ТБ (при использовании 100GB дисков). В случае с NetApp FlashCache кэшируется только чтение, но зато кэш является дедублицированным и может достигать 16ТБ. Кроме того, FlashCache является PCI-e платой, поэтому “дорога” от кэша до процессора (а значит и до хоста) гораздо короче, чем при использовании SSD дисков. А это, в свою очередь, потенциально позволяет получить довольно низкую латентность. С другой стороны, если мы захотим получить 16ТБ кэша, то на придется задействовать 16 слотов расширения из 24х возможных, что существенно ограничит возможности расширения (как по дискам, так и по используемым протоколам подключения хостов).

EMC тоже отметились и с шумом выкатили свое решение для кэширования VFCache (Very Fast Cache). Что это и как “привязано” к дисковой системе? По факту VFCache это обычная PCI-e плата (как и аналоги у FusionIO, LSI и пр.) 300GB (производства Micron), которая используется не как супер-быстрый диск в операционной системе, но как кэш для операций чтения.

image

В принципе (насколько я понял из прочитанного/найденного), никто не мешает использовать VFCache с любой дисковой системой (и без нее в т.ч.). Можно даже часть VFCache “отрезать” и использовать как жесткий диск. Среди явных минусов – пока поддерживается только одна карта в сервере, так что использование части VFCache как DAS, не может обеспечить отказоустойчивость. Кроме того, поддержка в VMware серьезно ограничивает такой функционал как vMotion (а точнее он просто не поддерживается). В данном случае решение EMC тоже уникальным не назовешь. Один из пионеров в выпуске PCI-e SSD карт – FusionIO уже некоторое время предлагает аналогичный продукт ioCache (который, кстати, vMotion как раз поддерживает). Есть надежда, что в последующих релизах VFCache будет существенным образом доработан и появится не только более тесная интеграция с VMware, но и с собственными продуктами (FAST Cache/ FAST VP).

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!