понедельник, 29 июня 2009 г.

48 дисков в одной полке для HDS AMS

Постепенно до всех "доходит" необходимость наличия конфигураций СХД с большой плотностью расположения дисков. Вот и HDS выпустила для систем AMS2000 "сверхплотную" полку расширения (High Density Storage Expansion Tray).

В полке вертикально располагается до 48-ми дисков. Конечно же работает hot-swap (для этого полка с дисками вытаскивается на ходу из стойки, это дает доступ для замены как дисков, так и ENC модулей). Диски другие (вернее диски-то те же самые, но салазки другие), соответственно из обычной полки в "плотную" переставить нельзя. Полка логически (с точки зрения контроллера) представляет собой две отдельные системы по 24 диска. Из этого следуют определенные ограничения на максимальное число "плотных" полок: одна для системы AMS2100 и три для AMS2300. Несложно подсчитать, что попытки увеличения чила полок сверх указанного числа приведут к тому, что максимальное число дисков на SAS канал (60шт) будет превышено. Смешивать новые и классические полки можно без проблем, как и смешивать диски их этих полок в одном массиве.

Помимо этого, анонсированы 8Гбит FC порты в AMS2300/2500, а также версия специальная AMS2500DC под постоянный ток и сертифицированная по NEBS Level-3.

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

четверг, 25 июня 2009 г.

Батарейки (BBU) - на свалку!

Adaptec выпустил 5Z серию RAID контроллеров, которым не требуется батарейка для защиты кэш памяти при сбоях питания. Технология носит название Adaptec Zero-Maintenance Cache Protection (ZMCP). Предложенное решение, правда, не новое - например, Dot Hill для своих дисковых систем уже давно использует подобный подход, однако для внутренних RAID-контроллеров применяется впервые.
Как же это работает? В классической схеме на контроллере установлена батарейка (BBU), которая поддерживает питание на кэш памяти в случае, если, например, сервер выключился в тот момент, когда в кэше были данные. Это позволяет обеспечить сохранность данных в кэше и записать их на диски, как только сервер будет опять включен. Оданко, данный подход имеет и свои недостатки: срок службы батарей ограничен, батарея может поддерживать питание только ограниченное время (как правило не более 72 часов), батарея должна быть заряжена перед тем, как ее можно использовать и т.д.. Регламентное обслуживание батарей не составляет проблем, когда серверов один или два, но когда их количество составляет несколько десятков, это уже начинает вызывать сложности.
В новых контроллерах дополнительно установлена NAND flash память, на которую и происходит "сброс" содержимого кэша при сбое сервера. Конденсаторы, установленные на контроллере обеспечивают подачу питания на цепи, используемые в процессе копирования содержимого кэш памяти на flash. Зарядка конденсаторов происходит гораздо быстрее, чем батареи, поэтому защита кэша работает практически сразу после первого включения сервера. В отличие от BBU, не требуется регулярное обслуживание. Еще один плюс: теперь нельзя "забыть" купить батарейку - для всех контроллеров серии 5z кэш уже защищен и никаких дополнительных опций не требуется.
Жить стало проще! Прощай BBU в серверах! :)
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 16 июня 2009 г.

HRD на смену SSD?

DataSlide предлагает вернуться от SSD обратно к жестким дискам, но, правда, с совершенно другой архитектурой. Впрочем, "диском" это уже назвать сложно - Hard Rectangular Drive (HRD) это скорее "жесткий прямоугольник": пластина с данными движется в горизонтальной плоскости относительно двух пластин с нанесенными на них головками (2D массив). До 64 головок могут осуществлять параллельные операции чтения/записи.


За счет этого достигается производительность в 160.000 IOPs (чтение/запись) и трансфер до 500MB/s (и это только с одного устройства). Обещанные объем составляет от 80ГБ до 2ТБ, а энергопотребление - всего 4Вт.


Подробности о технологии можно увидеть вот здесь (ppt), а также на сайте DataSlide.
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

понедельник, 15 июня 2009 г.

Оптимизация (ссылки)

Две ссылки вроде бы совсем о разном, но, с другой стороны, обе имеют непосредственное отношение к правильному конфигурированию:

  • драфт редбука IBM: Tuning IBM System x Servers for Performance - рекомендуется к внимательному прочтению тем, кто сталкивается с проблемой недостаточной производительности сервера. Приведены алгоритмы поиска "бутылочных горлышек" и их устранения. На мой взгляд, своего рода "маст" для для нормального системного администратора.
  • Chad Sakac (большой специалист по Vmware) разместил очень интересный пост про использование NFS в своем блоге. Если есть интерес к использованию NFS (или, наборот, есть потенциальная возможность, но нет интереса), то обязательно имеет смысл прочитать, так как рассказывается не только про хорошие (и не очень) стороны, но и про оптимизации как настроек в частности, так и инфраструктуры в целом.
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 9 июня 2009 г.

НЕкорпоративное видео

EMC в "лучшем" свете:

is that another fucking company I have to buy?
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

вторник, 2 июня 2009 г.

EMC очень хочет отнять Data Domain у NetApp

Как оказалось, EMC очень хотят, чтобы DataDomain достался все-таки им (хотя, наверное, еще больше не хотят чтобы его получил NetApp), поэтому предложили уже 30$ за акцию, что соответствует примерно 1.8млрд$ в кэшэ. Предложение явно выгоднее, чем то, которое NetApp сделал немногим ранее (у NetApp нет столько кэша не то, чтобы переплюнуть EMC, но даже и чтобы сравнять ставки). Пока, впрочем, никто ничего внятного не сказал, но вполне возможно, что EMC получит в дополненение к своему Amavar еще и аппаратное решение по дедупликации. Ни NetApp, ни DataDomain комментарии пока никакие не дали.
Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!

Заказчики и поставщики

Отличный ролик. Несмотря на весь абсурд ситуации, реальные разговоры в IT очень часто так и идут :)

Понравился пост? Подпишись через RSSRSS, EmailEmail или twitter!