Курс на облако с минимальным PUE
Инженерная инфраструктура Инженерная инфраструктура

Если сравнивать современные принципы ЦОДостроения с теми, что были на коне лет 5 назад, можно проследить принципиальные отличия

Главная>Инженерная инфраструктура>Курс на облако с минимальным PUE
Инженерная инфраструктура Тема номера

Курс на облако с минимальным PUE

Дата публикации:
15.10.2013
Посетителей:
92
Просмотров:
72
Время просмотра:
2.3

Авторы

Автор
Сергей Андронов Директор Центра сетевых решений компании «Инфосистемы Джет»
Если сравнивать современные принципы ЦОДостроения с теми, что были на коне лет 5 назад, можно проследить принципиальные отличия. Еще в середине 2000 годов масштабирование дата-центра обеспечивалось за счет изначального закладывания избыточности решений – предоставления максимально возможных мощностей и ресурсов. Одним словом, решение о строительстве принимали, ориентируясь в первую очередь на размер CAPEX. OPEX на тот момент в расчет не брали, а если и рассматривали, то как что-то, отдаленное от ЦОД. В то же время дата-центр при строительстве ориентировали на определенную архитектуру серверного оборудования: его зоны жестко сегментировались на Hi-End`ы, сетевую часть (LAN, SAN и т.п.), серверы х86, СРК и т.п. Такая карта местонахождения диктовала раз и навсегда закладываемые маршруты прокладки коммуникаций. Другими словами, дата-центры были «неповоротливыми» относительно потенциальной модернизации размещаемого в них серверного оборудования.

 

 

Сегодня, в посткризисный период, компании в большей степени стали принимать в расчет суммарные затраты на построение и эксплуатацию ЦОД в течение последующих 3–7 лет. Исходя из этих цифр, принимается решение о целесообразности строительства. Одна из главных задач – минимизировать CAPEX и оптимизировать OPEX. Таким образом, при возведении ЦОД стали закладываться инженерные решения, позволяющие за счет использования гибких и легкоадаптируемых технологий осуществлять поэтапное масштабирование.

При этом существенно изменилась и концепция построения серверной ИТ-инфраструктуры: «вектор силы» направлен на повышение энергоемкости. Доля Hi-End-оборудования пошла на убыль, тогда как количество серверов х86, напротив, увеличилось в разы. Один физический сервер теперь, благодаря виртуализации, может скрывать в себе несколько логических. Фермы виртуализации объединяют их в единое целое, и в случае выхода из строя того или иного сервера виртуальные машины (ВМ) поднимаются на другом, без прерывания работы и совершенно незаметно для пользователей.

 

В результате в ЦОД 5–7-летней выдержки возникли зоны, где базовые показатели инженерной инфраструктуры (энергетика, холод, юниты) вышли за проектные значения. Этот процесс напоминает фрагментацию дискового пространства при работе с файловой системой. Заполнение ЦОД перестало быть равномерным, что привело к дисбалансу и с точки зрения инженерной инфраструктуры. На отдельных участках ЦОД появились перекосы – перегрев, превышение лимитов по электричеству или, наоборот, его дефицит. Подобные точки отказа грозят остановкой серверного оборудования. Это не могло не отразиться на степени утилизации дата-центров: если на 2008 год ее среднее значение для большинства ЦОД составляло 70–80%, то сейчас едва ли достигает 50%.

 

Гораздо легче при использовании технологий виртуализации переместить в ту или иную физическую зону дата-центра нагрузку на процессорные мощности. Если их расположить более или менее равномерно, можно обеспечить и распределение нагрузки путем миграции ВМ между физическими серверами в соответствии со статистическими показателями, накапливаемыми DCIM. Тогда вы сможете доставлять высоконагруженные процессорные ресурсы ближе к подходящим элементам инженерной инфраструктуры. И наиболее холодно будет в зонах «накала серверных страстей». Проблема карты фиксированного местонахождения, рассчитанной на Hi-End-ориентированное зонирование дата-центров, снимется с повестки дня.

В то же время идея подразумевает под собой отнюдь не ручное управление перемещением процессорных ресурсов. Для эффективной реализации такого подхода недостаточно наличия технологии виртуализации и DCIM. Нужна специализированная инфраструктурная сеть датчиков или SNMP-адаптеров для фиксации и передачи в аналитическое ядро системы управления ВМ данных о превышении пороговых значений по тем или иным критичным параметрам. Затем система сможет реализовывать заранее прописанные сценарии по переносу виртуальных машин в различные места ЦОД. Здесь мы говорим уже не о классической, а о макровиртуализации: физический дата-центр с точки зрения организации своей работы преобразуется в облако или «мегасервер».

Сегодняшнюю ситуацию с дата-центрами в России я бы обозначил как «демографическое старение в стране отечественных ЦОД». Пик их строительства пришелся на первую половину 2000-х. Грянувший кризис 2008 года заморозил или заставил вовсе свернуть большинство строек. Потепление наступило лишь в 2010–2011 годах – некоторые из них были извлечены из долгого ящика. В результате на 4–6 докризисных дата-центра в среднем приходится всего 1 ЦОД-новичок, который может похвастаться использованием зеленых технологий и «низкокалорийным» PUE. ЦОДы «с судьбой» не так энергоэффективны, но снимать их со счетов пока преждевременно: они надежны, масштабны (далеко не все новые дата-центры занимают такие площади) и, как уже было сказано, гораздо более многочисленны. Поэтому целесообразнее будет провести их модернизацию с учетом новых тенденций.

Если говорить об оптимизации OPEX’ов, то не последнюю скрипку здесь на данный момент играет Power Usage Effectiveness – PUE. Энергоэффективность ЦОД по факту уже стала одним из ключевых параметров для их владельцев, соответственно, ускоренными темпами растет спрос на «зеленые» решения.

 

Синергия серверного и инженерного оборудования

 

Таким образом, перед компаниями стоит цель повышения отдачи от их ЦОД. Для ее достижения необходимо решить 2 задачи – увеличить плотность ресурсной базы серверного хозяйства и повысить утилизацию инженерной инфраструктуры, её свободных мощностей и параметров. По степени своей взаимосвязанности они напоминают известный парадокс ленты Мебиуса, у которой не 2, а одна сторона.

 

На первый план здесь выходит идея так называемой дефрагментации свободных мощностей инженерных инфраструктур с точки зрения ресурсов (площадей, электропотребления, тепловыделения и т.п.). Для мониторинга этих параметров целесообразно использовать DCIM-решения (Data Center Infrastructure Management). Они дают возможность оценить степень загрузки различных локальных мест ЦОДа и подстроить инженерную инфраструктуру, для того чтобы ее утилизация была более эффективной.

 

Но видоизменение «инженерки» в любом случае трудоемко и обладает ограничениями с точки зрения «физики». Она в буквальном смысле слова зависит от ширины трубы, толщины проложенного кабеля, сечения воздухоканала и т.д.

ЦОД как облачный Perpetuum Mobile. 


Популяризация cloud-сервисов также подталкивает владельцев ЦОД к развитию их инфраструктуры. «Землей», без которого облако не смогло бы существовать, являются серверные мощности и «инженерка». Поэтому оно вовсе не бесконечно, как может показаться на первый взгляд. 


За каждым cloud-сервисом стоит осязаемая инженерная инфраструктура, с четкими показателями кВт по холоду и энергопотреблению, километражу оптоволокна и т.д. 


Соответственно, говорить о разрастании облака можно, только понимая, какой инженерный ресурс с точки зрения ЦОДа может быть в него заложен. При построении дата-центра требуется учитывать и соблюдать планы по масштабированию или разнесению его сегментов на некоторые расстояния (здесь начинает работать понятие асинхронных транзакций, зависящих от скорости передачи сигнала по оптоволокну). 
Один из наиболее удачных подходов к построению энергоэффективного и масштабируемого ЦОДа, рассчитанного на потребности «привязанного» к нему облака, – модульный. В этом случае дата-центры наращиваются полноценными «кубиками». Это позволяет масштабировать ЦОД за счет увеличения числа модулей, а также системы внутри каждого из них. Такой подход обеспечивает большую гибкость серверной инфраструктуры.


Возможности ЦОДа и облака влияют друг на друга. С одной стороны, наращивание cloud-среды ограничено территориальными возможностями масштабирования серверного комплекса. А с другой – развитие облачных сервисов становится причиной модернизации дата-центров, что вписывается в концепцию повышения их энергоемкости и энергоэффективности.

Гораздо легче при использовании технологий виртуализации переместить в ту или иную физическую зону дата-центра нагрузку на процессорные мощности. Если их расположить более или менее равномерно, можно обеспечить и распределение нагрузки путем миграции ВМ между физическими серверами в соответствии со статистическими показателями, накапливаемыми DCIM. Тогда вы сможете доставлять высоконагруженные процессорные ресурсы ближе к подходящим элементам инженерной инфраструктуры. И наиболее холодно будет в зонах «накала серверных страстей». Проблема карты фиксированного местонахождения, рассчитанной на Hi-End-ориентированное зонирование дата-центров, снимется с повестки дня.

 

В то же время идея подразумевает под собой отнюдь не ручное управление перемещением процессорных ресурсов. Для эффективной реализации такого подхода недостаточно наличия технологии виртуализации и DCIM. Нужна специализированная инфраструктурная сеть датчиков или SNMP-адаптеров для фиксации и передачи в аналитическое ядро системы управления ВМ данных о превышении пороговых значений по тем или иным критичным параметрам. Затем система сможет реализовывать заранее прописанные сценарии по переносу виртуальных машин в различные места ЦОД. Здесь мы говорим уже не о классической, а о макровиртуализации: физический дата-центр с точки зрения организации своей работы преобразуется в облако или «мегасервер».

Уведомления об обновлении тем – в вашей почте

SDDC: реалии и тенденции

Термин «программно-определяемый ЦОД» (в терминологии VMware – Software-Defined Data Center, SDDC) употребляется профессионалами уже не первый год.

Внешние ИТ-ресурсы - нельзя (,) отказаться!

Представим себе ситуацию: компания задумалась о том, чтобы внедрить ERP. На месте этих 3 букв может стоять другая аббревиатура – CRM, CAD, BI, SRM, CMS, EAM, MRM, GIS

«Облако — важнейший внутренний элемент любой мировой экосистемы»

Насколько российский облачный рынок отстает от западного? Почему Сбер — не основной клиент SberCloud? Можно ли провести цифровую трансформацию без облачных решений?

Сети в облаках

Глубина и темпы проникновения ИТ в личную и корпоративную жизнь сейчас уже никого не удивляют. В наиболее развитых странах революцию в этой области можно считать состоявшейся: объемы данных в информационных системах вышли на экспоненциальный рост, который даже опережает темпы, предсказываемые законом Мура

Проблемы безопасности виртуальных сред: заплаточный подход

Прошедший 2012-й год показал, что компании в России начали вести реальную работу в области обеспечения защиты своих виртуальных сред (ВС)

Как перейти в облако и не облажаться

Свой дата-центр vs публичное облако. Кто кого? Варианты использования публичных облаков в корпоративном ИТ-ландшафте? Что нужно учитывать при переносе приложения в cloud-среду?

Резервирование данных: выбор площадки

Резервный ЦОД — неотъемлемая часть процесса обеспечения непрерывности бизнеса.

Роль Quality Assurance, или Шпионские страсти ЦОДостроения

Если поностальгировать и вспомнить Центры обработки данных конца 1990-х годов, то практически все они были консервативными с точки зрения используемых технологий. Ситуация изменилась в начале XXI века в связи с ростом объемов корпоративных данных, а также количества используемых компаниями бизнес-приложений.

«Кешбэк от DCIM — это когда решение высвобождает до 30% ресурсов ЦОД»

Почему тема DCIM сейчас особенно актуальна? Во сколько обойдется такой проект? Как работает кешбэк от DCIM? Какие ошибки допускают заказчики при внедрении?

Спасибо!
Вы подписались на обновления наших статей
Предложить
авторский материал





    Спасибо!
    Вы подписались на обновления наших статей
    Подписаться
    на тему







      Спасибо!
      Вы подписались на обновления наших статей
      Оформить
      подписку на журнал







        Спасибо!
        Вы подписались на обновления наших статей
        Оформить
        подписку на новости







          Спасибо!
          Вы подписались на обновления наших статей
          Задать вопрос
          редактору








            Оставить заявку

            Мы всегда рады ответить на любые Ваши вопросы

            * Обязательные поля для заполнения

            Спасибо!

            Благодарим за обращение. Ваша заявка принята

            Наш специалист свяжется с Вами в течение рабочего дня