пятница, 28 августа 2009 г.

Для владельцев CLARiiON, использующих iSCSI и vSphere

Если Вы используете iSCSI на EMC CLARiiON для подключения к vSphere и испытываете проблемы с производительностью, то проблема в том, что кларионы идентифицирует iSCSI сессию только по IQN, что вызывает многочисленные log-in/log-off и заметно снижает скорость. Более подробное описание проблемы и, что более важно, ее временное решение (до исправления FLARE) находится тут.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

Обновления NetApp

Новости, правда, уже пару дней как отшумели, но раньше что-то не доходили руки :)

Объявлено о выходе 8й версии ONTAP, ключевая особенность – наконец состоялось (худо-бедно) слияние “классической” версии и ONTAP GX. Слияние обещали уже лет 5, но вот теперь оно свершилось. Почему “худо-бедно”? Несмотря на то, что ONTAP теперь один, все равно приходится выбирать, как он будет работать – в “7 mode” или “claster mode”. Классический вариант 8ки практически эквивалентен версии 7.3.1, но из-за слияния {временно} лишен IPv6 и SnapLock. С другой стороны, появились 64бит агрегаты, что конечно будет на руку всем, кому было мало 16ТБ. Но и здесь не обошлось без ложки дегтя – для младших систем размер агрегата увеличился всего до 40ТБ, а максимальные 100ТБ можно получить только на старших 6070 и 6080 (из-за ограничений, вызванных объемом памяти). Смешение 32х битных (уже имеющихся) и 64х битных (новых) агрегатов может повлечь неприятные моменты – в частности, если Вы купили новую систему под Volume SnapMirror и сделали в ней 64х битные агрегаты, то снап-миррор работать не будет. Превратить один агрегат в другой без миграции данных на свободное место нельзя.

Вторая важная новость - NetApp начинает предлагать SAS полки для своих систем (всех, кроме самой младшей 2020). Полка сейчас только одна – DS4243, занимает 4U в стойке и может вмещать до 24х дисков SAS или SATA(если быть точнее, то заказать можно либо 12, либо 24 диска). Диски внутри полки могут быть только одного типа, поэтому поставить 12 SAS и 12 SATA дисков не получится.

Полка, как я понимаю, традиционно изготавливается на заводах Xyratex и очень сильно напоминает OneStor SP1424s, однако интерфейсные модули стоят другие и обеспечивают дополнительный канал управления через ethernet порт. Благодаря этому каналу можно управлять экспандером (перезагружать и т.п.), но нужно будет выделить один из портов ethernet на каждом контроллере под это дело (пока на новых системах не будет отдельного порта). Стекировать можно до 10 полок, получая до 240 дисков в стеке (нужно помнить, что количество дисков на систему не поменялось, поэтому для младших систем ограничения будут другие).

Также был анонсирован кэширующий модуль PAM II объемом 256ГБ и 512ГБ. Теперь для старших систем можно получить до 4ТБ кэша (чтения). Про него имеет писать с графиками и результатами тестов, соответственно, все это можно уже прочитать у самих нетаповцев.

Аппаратные обновления поддерживаются в ONTAP 7.3.3, которая ожидается в декабре 2009 (если я правильно помню). Также в этой версии будет возможность прозрачной миграции данных между системами с включенным MultiStore (для NFS и iSCSI) – NetApp Data Motion, приложения, при этом, не потребуется останавливать. Можно сказать, что это некий аналог Vmware Storage vMotion.

Все вышесказанное относится конечно и к IBM N series (анонсы должны быть чуть позднее).

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 25 августа 2009 г.

IBM DS5020 приходит на смену “старичку” DS4700

Дисковая система IBM DS4700 уже несколько лет является боевой лошадкой для тех, кому нужна довольно производительная и расширяемая СХД среднего класса не с заоблачной ценой. Но вот и пора на покой – на смену приходит новый игрок – IBM DS5020. Анонс, традиционно, датирован вторником (сегодняшним числом).

imageЧто же нас ждет? Неожиданных новостей не будет – практически все уже видели у “старшего брата” – DS5100/5300. В базе система DS5020 оснащена 4мя портами FC 8Gbit (по два на каждый контроллер). При желании, можно дополнительно установить либо еще 4 порта FC 8Gbit, либо 4 порта iSCSI 1Gbit. Это избавляет нас от необходимости использовать отдельные (и требующие соответствующей настройки) iSCSI-гейты для подключения серверов, которым нет особой нужды в FC. Диски поддерживаются SATA (750GB и 1TB) , FC (146/300/450GB 15k) и FDE (с поддержкой шифрования – 146/300/450GB 15k). Поддержка SSD осталась в старшей серии, что наверное логично (в первую очередь из-за цены SSD – уж если есть бюджет на них, то и на DS5300 можно найти). В плане кэша также есть выбор – 2 или 4GB на систему. Т.е. хотя и разграничения по моделям и нет, но “болезненный” выбор необходимых опций при начальном заказе остался - дополнительные порты и расширение кэша доступны только при изначальном заказе, но не как апгрейд. Одно из новшеств DS5100/5300, перекочевавшее в DS5020, состоит в том, что защита кэш памяти не ограничивается установкой батарей, а при отключении питания происходит “сброс” содержимого кэша на флэш-память, что обеспечивает защиту кэша даже при долговременном отключении системы (или при неполной зарядке батарей). В контроллерной полке, как и в DS4700 можно установить до 16-ти дисков, а вся система расширяется до 112 дисков. Полки расширения используются новые EXP520, но и “старые” EXP810 также можно подключить (правда требуется соответствующая лицензия). Бэкэнд остался 4х гигабитным. Но исчезла лицензия, позволяющая смешивать в одной системе FC и SATA диски – теперь это можно делать совершенно спокойно (диски, как и прежде, можно “смешивать” по собственному желанию, без каких либо ограничений). Кроме того, добавление первой EXP520 не требует никаких лицензий. Лицензируется подключение дисков с 33 по 64го, при подключении более 64х дисков потребуется еще одна лицензия. Минимальное число Storage Partitions, как и прежде, 2 и расширяется до 128ми степенями двойки (4, 8, 16, 32, 64, 128). Вот собственно и все новости – внешне система практически не отличается от DS4700 (спереди только надписью, а сзади – небольшим внешним отличием контроллеров).

Основные характеристики по сравнению с DS4700 мало изменились: поддерживаются RAID1,3,5,10,6; в одной RAID-группе RAID10 можно использовать до 112 дисков, в остальных типах RAID – до 30ти дисков; поддерживаются такие возможности как создание мгновенных снимков (FlashCopy), клонов (VolumeCopy) и репликация на удаленный массив (Enhanced Remote Mirroring). Производительность системы заметно увеличена (результаты пока официально не опубликованы, но обещают до 50% прироста). Фактически, получили новую “рабочую лошадь” взамен старой.

А что же все-таки не получили, хотя было бы очень полезно? Есть и такое:

  • установка дополнительных портов по мере необходимости (EMC вон уже давно это умеет);
  • расширение кэша как апгрейд;
  • поддержка SSD – не больно и хотелось, а, положа руку на сердце, и не нужно (с технической точки зрения), но “толпа жаждет”;
  • расширение возможностей VolumeCopy и FlashCopy;
  • FCoE – хотя и тоже пока не актуально, но тоже было бы громким шагом.
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

понедельник, 24 августа 2009 г.

А нужна ли финансовая мотивация?

На TED'е еще одно отличное выступление: Dan Pink рассказывает про негативное влияние финансовой мотивации при решении сложных задач. Да-да! Это не опечатка - ряд исследований показывает, что деньги, как награда за достижение цели, могут не столько улучшить результат, сколько ухудшить его! Мотивация хорошо работает для простой (почти механической) работы, но, как только требуется применить интеллект, призрачная награда начинает все больше отдалять цель.



Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

CNA - в массы … но пока еще не скоро.

Qlogic объявили о начале отгрузок второго поколения CNA адаптеров – серию 8100. Ключевые отличия – поддержка PCI-express x8 версии 2.0 и теперь вся реализация “упрятана” в единственный чип. Как следствие, карты получились очень экономичными по питанию – тепловыделение всего 7W . Заявлена производительность в 250.000 IOPs на порт (платы как одно-, так и двухпортовые). iSCSI поддерживается через программный инициатор, что несколько ограничивает применение на высоких скоростях (впрочем, для этого данные платы и не предназначены).

image

Подключение – через SFP+, а варианты поставки есть как без SFP+ модулей (для twin-ax кабелей), так и с модулями под SR и LR оптику. На текущий момент можно уже строить решение целиком под FCoE – коммутаторы Cisco Nexus 5000 (или Brocade 8000), дисковые системы от NetApp (или их аналоги - IBM N Series) уже сейчас можно заказать с FCoE интерфейсами (кроме того, имеющиеся FC системы можно подключить к коммутаторам в специально отведенные порты). Таким образом (если задаться целью), уже сейчас можно получить инфраструктуру завтрашнего дня. Однако, по различным оценкам (как аналитиков, так и самих заказчиков) реальных внедрений стоит ожидать в 2011-2012 годах.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

пятница, 14 августа 2009 г.

Аппаратная платформа от Falconstor

Компания Falconstor, один из лидеров рынка систем виртуализации СХД и VTL, объявила о поставках под своей маркой аппаратного решения, в котором используется флагманский продукт NSS (виртуализация СХД) – Network Storage Server HC. Данные системы поставляются в 4х вариантах: 8 и 16 портов iSCSI, 8 x iSCSI + 8 x 4Gbit FC и 4 x 10Gbit iSCSI. Все системы двухконтроллерные и поддерживают зеркалирование, репликацию, мгновенные снимки, а также thin provisioning. Для обеспечения консистентности данных различных приложений при создании мгновенных снимков потребуются спецальные агенты, которые поставляются отдельно. Самая младшая модель раширяется до 224 дисков, а остальные – до 336 (16ти дисковыми модулями). Фактически производителем “железа” выступает компания H3C (Huawei-3Com), которая также и сама продает данные системы (разумеется, уже под своей маркой) - это их линейка IX3040/3080/IX3240/IX3620. С точки зрения “железа” это двухконтроллерные массивы (кластер из двух серверов в одном конструктиве), на которых, помимо ПО для управления дисками (RAID/LUNs), установлен также Falconstor NSS. Я слышал, что поддерживается в т.ч. и подключение сторонних систем для виртуализации, но документальных подтверждений пока не нашел (может быть это и возможно для “чужих” iSCSI систем, а FC там просто некуда подключить).

imageНасколько это хорошее решение сказать сложно – с одной стороны, все компоненты поставляются "из одних рук и это сильно облегчает жизнь при возможных проблемах. С другой стороны, реализация всего функционала СХД на той же системе, на которой работает сам NSS, может существенно влиять на производительность. Ограниченные возможности по подключению сторонних дисковых систем не добавляют решению “плюсов”. Но вот однако, если вместо NSS использовать VTL – получается вполне привлекательный вариант, так как перестает болеть голова о выборе аппаратной платформы для виртуальной ленточной библиотеке.

Выпуск NSS HC никак не ограничивает поставки чисто программной части NSS –этот продукт по прежнему можно спокойно приобретать и использовать с оборудованием сторонних производителей (как и предполагалось изначально).

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

VMware Acceleration Kit: не потратил - значит заработал

Сегодня пару слов о банальном, но, увы, про это часто забывают.

Ни для кого не секрет, что скидки на системный софт (к которому относится и VMware vSphere) обычно сравнительно невелики и “зажаты” в определенные рамки. Да, конечно, под большой проект можно получить хорошее предложение, но большой проект это и большие деньги. А иногда нужно поставить два-три сервера, а чем меньше бюджет решения, тем, как правило, больше желание его еще немного сократить. И именно для таких случаев VMware предлагает пакеты лицензий (так называемые Acceleration Kit), которые обходятся заметно дешевле, чем если бы все лицензии нужно было приобретать отдельно. Про такой вариант приобретения зачастую забывают, а зря. На текущий момент доступны следующие варианты:

  • Advanced Acceleration Kit – включает 6 процессорных лицензий (на три двухпроцессорных сервера) vSphere Advanced и лицензию на vCenter Foundation (так как vCenter Foundation поддерживает до 3х серверов, возникает ограничение на три двухпроцессорных сервера, и сделать, например, 6 однопроцессорных серверов с такой лицензией не получится).
  • Enterprise Plus Acceleration Kit for 6 Processors – включает 6 процессорных лицензий vSphere Enterprise Plus и лицензию на полноценный vCenter. Доступны все возможности vSphere, а цена, при этом, заметно ниже.
  • Enterprise Plus Acceleration Kit for 8 Processors – включает 8 процессорных лицензий vSphere Enterprise Plus и лицензию на полноценный vCenter. Отличный вариант, если ставится две 4х процессорные машины.

Для малого бизнеса действует еще одно очень заманчивое предложение: vSphere Essentials Plus Promotion. Это комплект из лицензий ESX/ESXi для трех двухпроцессорных машин и vCenter for Essentials. Поддерживается до 4х виртуальных процессоров в VM, High Availability, Data Recovery и Update Manager.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

понедельник, 10 августа 2009 г.

LUN, RAID array и другие…

В последнее время все чаще возникают вопросы про то, как нужно создавать RAID-массивы и, как следствие, возникают недопонимания и разночтения про такие понятия как LUN и RAID. Разночтения возникают из-за того, что контроллеры разных производителей работают немного по-разному (в плане логической организации) и человек, привыкший работать например с контроллерами Adaptec, имеет сложности, объясняя владельцу контроллера LSI, что именно нужно сделать.

Начну с очевидного: RAID-контроллеры позволяют создать несколько логических дисков “поверх” имеющихся физических дисков. Обратите внимание, что “логические” они именно с точки зрения RAID-контроллера, так как сервер видит их как вполне себе отдельные физические диски. Скажем, если к нашему абстрактному RAID-контроллеру подключено 8 дисков по 1ТБ и сделано два логических диска на 1ТБ и на 7ТБ, то операционная система сервера будет “думать”, что к серверу подключено два диска – на 1ТБ и на 7ТБ (а то, что дисков на самом деле 8, будет “скрыто” за RAID-контроллером).

RAID-LUN-01

Часто для обозначения этих самых “логических” дисков применяется термин LUN (его можно читать как Logical UNit, но правильнее – Logical Unit Number, так как исторически этот термин применялся именно для нумерации дисков на SCSI шине).

RAID-контроллеры позволяют по-разному создавать логические диски “поверх” физических. Одни (3Ware, старые контроллеры LSI) позволяют создать RAID-массив из произвольного числа дисков и потом разделить его на несколько частей (именно это чаще всего имеют в виду, когда говорят про “разбиение массива на LUNы”):

RAID-LUN-02

Другие контроллеры (новые LSI, Adaptec), напротив, не позволяют делить созданные RAID-массивы на части, но зато позволяют на одних и тех же дисках создать несколько массивов (причем, массивы могут быть созданы разного уровня):

RAID-LUN-03

Во втором случае, говорить про “нарезание” LUNов на массиве конечно не совсем корректно (и зачастую сильно затрудняет понимание), но общий смысл остается неизменным – в обеих случаях мы создаем несколько логических дисков на одном и том же наборе дисков физических. Именно так и следует понимать фразу наподобие “выделите под эти данные отдельный LUN”. Речь идет только о том, что для обсуждаемой задачи не требуется весь объем жестких дисков, входящих в RAID-группу, и следует создать средствами контроллера логических диск нужного размера, независимо от того, как это реализовано в используемом контроллере.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!