среда, 10 февраля 2010 г.

IBM HS22V – лезвие для виртуализации

9го февраля IBM анонсировал новое лезвие HS22V. Название недвусмысленно намекает на то, что прицелом является виртуализация. Действительно, основное отличие от HS22 (которые уже заняли основную нишу в блейдах IBM), состоит в наличии 18 (а не 12ти) слотов под память. А память является, как известно, наиболее востребованным компонентом при внедрении виртуализации серверов – процессорной мощности зачастую бывает много, а памяти почти всегда не хватает.

image

Вместо двух hot-swap дисков предлагается использовать пару фиксированных 1.8” 50GB SSD дисков (поддерживается RAID-0 и RAID-1). Желающие могут добавить аппаратный RAID с батарейкой (впрочем, не думаю, что для данного лезвия это будет хоть как-то востребовано). Также уже традиционно присутствует разъем для USB накопителя с предустановленной Vmware ESXi (3.5 или 4). Что касается плат расширения, то здесь все осталось без изменений по сравнению с HS22. Базовые модели лезвий используют процессоры X5570 и E5540, можно также заказывать вариант с процессорами E5506 (но массово он поставляться не будет).

image

Для виртуализации весьма удобно использовать Virtual Fabric Adapter, про который я уже писал. Для тех, кому актуально использование FibreChannel, но уже есть прицел на FCoE и/или 10Гбит также есть хорошее решение - Virtual Fabric Extension Module.

Начало отгрузок HS22V планируются на 16е марта. Кроме того, в интернет просочилось название нового лезвия на процессорах Nehalem EX  - HX5. Предполагается поддержка 4х процессоров на собственном чипсете eX5. Напомню, что текущую серию процессоров Xeon MP в лезвиях IBM не встретить – аргументом было повышенное энергопотребление и тепловыделение. А на Youtube давно уже можно найти совместный рассказ IBM и Intel о готовящемся чипсете и апдейте линейки 3850M2/3950M2.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 9 февраля 2010 г.

SPC-1, IBM SVC, DS8700 и другие…

Сегодня конечно надо писать про POWER7 или в крайнем случае про Itanium, но об этом и так напишут без меня. Единственное что мне в этом анонсе интересно, будет ли реакция оракла в виде изменения коэффициентов при расчете лицензий. Мне же сегодня хочется вспомнить про опубликованные на прошлой неделе результаты тестирования дисковых систем.

Про выход EMC из тени и возврат в тесты sfs2008 (впервые с 2007го года) с Celerra Gateway NS-G8 и Symmetrix V-Max, набитой SSD, не написал еще только самый ленивый приверженец нетапа. При всей нелюбви EMC к синтетическим тестам, заход с публикацией тестов действительно довольно странный – и ладно бы результат был бы рекордным, так нет, ни флагман хай-энда V-Max, ни использование SSD (EFD) дисков не дали забраться на пьедестал почета. Впереди оказались и NetApp, и BlueArc, и Exanet…

А вот про IBM с его результатами тестов SPC-1 для DS8700 остался как-то в тени. Что же тут такого? Удивляет, что с момента выхода DS8700 прошел уже не один месяц и, если результаты появились только сейчас (и это при всей любви IBM к публикации результатов всевозможных тестов), то в чем причина такой задержки? Может быть система оказалась слабее, чем HDS USP-V, которая занимала первое место в SPC-1 среди хай-энда уже более двух лет? (Да, у IBM был результат и выше, но он был у SVC в связке с несколькими DS4700) Или все дело в том, что радикального преимущества можно было достичь только на числе дисков, большем нежели в USP-V (а там их было 1024)? И потребовалось добавить SVC, чтобы объединить две системы DS8700 и получить в сумме 2048 дисков. Все это нам, простым людям, узнать наверное не получится, но давайте посмотрим на результаты:

 

HDS USP-V

IBM DS8700 + 4xSVC

IBM DS8700 + 6xSVC

SPC-1 IOPS

200 245.73

315 043

380 489.3

$/SPC-1 IOPS

17.61

22.65

18.83

С одной стороны, критики SPC как инструмента для сравнения вроде бы правы и увеличение числа дисков в два раза дает почти в два раза лучший результат. С другой стороны, апологеты SPC тоже с виду правы, так как могут сказать, что качественное улучшение платформы (увеличение числа узлов SVC) при неизменном числе дисков может дать существенный прирост (в данном случае - примерно 20%). Но давайте взглянем немного более внимательно на результаты тестов:

 

HDS USP-V

IBM DS8700 + 4xSVC

IBM DS8700 + 6xSVC

SPC-1 IOPS

200 245.73

315 043

380 489.3

$/SPC-1 IOPS

17.61

22.65

18.83

resp. time      

100% load

4.99ms

28.13ms

7.64ms

90% load

3.89ms

10.36ms

5.20ms

80% load

3.62ms

7.19ms

4.36ms

Drives

1024 x 146GB

2 x 1024 x 146GB

2 x 1024 x 146GB

ASU, GB

26 000

97 581.657

97 581.657

ASU, % used

17%

32%

32%

В табличку мы добавили время отклика при 80, 90 и 100% нагрузки, а также информацию по числу дисков и их утилизации (%, который составляет размер ASU от общего пространства). Что изменилось? На мой взгляд, приведенные результаты свидетельствуют только о том, что добавление 2х узлов к 4х узловому кластеру SVC было вынужденным действием. “Дури” у DS8700 оказалось столько, что 4х узлов просто было недостаточно. Два дополнительные узла проблему решили и “бутылочное горло” пропало и, как следствие, снизилось время отклика. Попутно хочется обратить внимание на еще один немаловажный параметр – размер ASU. Конечно после учета всевозможных расходов на метаданные, спаре-диски и зеркалирование размер “полезной” емкости будет меньше 50%, но вот насколько меньше? В случае с HDS объем ASU составлял 17%, а в случае с IBM – 32%, а это почти в два раза выше. Почему это важно? Достаточно взять в руки iometer и потестировать любой массив, варьируя размер тестируемой области. Типичный график зависимости IOPS от используемого дискового пространства на рисунке:image

Таким образом, размещая данные в начальных областях дисков можно заметно повысить свой рейтинг в тестах. Какой можно сделать вывод? Боюсь что никакого толкового сделать нельзя. Хороша ли HDS USP-V? Безусловно! Результаты отличные (особенно учитывая то, что им уже более двух лет). Может быть плоха IBM DS8700? Конечно нет! SVC скорее всего все-таки был нужен именно для того, чтобы иметь возможность использовать 2048 дисков, а не для повышения производительности.

И в свете всего вышесказанного, мне не совсем понятно как IBM преподносит свой хай-энд в тестах и почему именно такая конфигурация была выбрана для тестирования:

  • Почему не взяли 8 узлов SVC? (неужели больше не было никакого эффекта?)
  • Почему не использовали SSD диски в DS8700? (может быть из-за ограничения на число дисков?)
  • Почему даже в SVC не использовались SSD? Объем кэша в двух DS8700 суммарно в три раза больше, чем у USP-V, но в расчете на размер ASU получается все-таки меньше и дополнительное кэширование должно было дать эффект (или все-таки нет?).

Вполне вероятно, что со временем последуют другие, более интересные результаты, которые прояснят ситуацию. Время покажет. Но относиться к результатам SPC (да и другой синтетики) нужно очень и очень аккуратно. Так как даже если считать, что сам тест предполагает воспроизводимость результатов и объективную методику тестирования, нужно признать что трактовка результатов (в первую очередь из-за огромного числа варьируемых параметров) вызывает больше споров и сомнений, нежели понимания общей картины.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!