В настоящее время для дата-центров прорабатываются решения, в которых количество портов 10G составляет до 50%, а подключение к сети blade-шасси на скорости 10G – уже устоявшийся тренд.
Какие решения сегодня в этой области предлагает индустрия нам рассказал Александр Гуляев, начальник отдела сетевых проектов компании «Инфосистемы Джет».
Какие недостатки существуют у «традиционных» решений по построению ЛВС дата-центра? Какова текущая ситуация в этой области?
Называя какие-либо решения «традиционными», следует сразу ожидать появления вопроса о «нетрадиционных» решениях, со всеми вытекающими последствиями. Поэтому я бы говорил, прежде всего, о том, что сегодня требуется современным дата-центрам от сетей передачи данных, и как сетевая индустрия отвечает на эти требования.
Первая тенденция касается магистралей ЛВС дата-центров. Объемы трафика между различными серверами в современных приложениях сравнимы с объемами трафика «клиент – сервер». При общении между серверами, расположенными в разных серверных и/или дата-центрах, трафик проходит через магистраль. Для дальнейшей виртуализации и «мобилизации» приложений необходимы магистрали, способные передавать все возрастающие объемы данных. Сегодня можно часто наблюдать, что скорость сетевых интерфейсов на доступе (соединения «сервер – коммутатор») и на магистрали (соединения между коммутаторами) одинаковая. Это может приводить к перегруженности магистрали трафиком и, как следствие, к проблемам в работе приложений. Если в ЛВС находятся production-сервера, что актуально для операторов связи, могут снизиться бизнес-показатели.
Конечно, существует «обходное» решение, позволяющее увеличить пропускную способность магистрали. Для этого несколько гигабитных портов объединяются в один логический канал большей пропускной способности. Но у такого решения есть свои минусы – нужны дополнительные порты и слоты коммутаторов, при этом используется большое количество кабелей, и трафик одного потока данных не может превышать 1 Гбит/с.
Отдельным вопросом в этой области стоит использование гигабитной ЛВС для решения задачи резервного копирования (РК). Backup серверов, имеющих большие объемы хранимых данных, через такую сеть является неэффективным решением, т.к. время резервного копирования получается очень большим. К тому же, при выходе из строя аппаратной части серверов время восстановления сервиса зависит, в том числе от скорости восстановления резервной копии на сервер. Скорость восстановления backup-a зависит от скорости сети, т.е. время восстановления сервиса напрямую зависит от скорости сети. Поэтому для серверов с большими объемами данных часто применяют резервное копирование через SAN, что требует дополнительного оборудования и ПО. А это удорожает решение.
Какие еще системы испытывают на себе недостаток пропускной способности? С какими минусами им приходится сталкиваться?
Относительно этой темы можно также говорить о системах хранения данных. Исторически СХД развивались на технологии FC (Fibre Channel). Этому способствовал и тот факт, что технология FC с решениями на 4G и 8G давала преимущества по скорости передачи данных. С появлением 10G Ethernet стали использоваться хранилища данных с файловым доступом (NAS), имеющие 10G Ethernet-интерфейсы. Более того, сейчас на рынке уже есть хранилища с блочным доступом на базе технологии Fibre Channel over Ethernet ( FCoE), также использующие указанные выше интерфейсы. Скорость передачи данных у таких устройств сравнима с СХД на базе FC.
Следует отметить, что NAS на технологии Ethernet ниже по стоимости внедрения и обслуживания, по сравнению с устройствами, имеющими интерфейсы FC. Очевидно, что устройства хранения бывают различных классов, и далеко не для всех приложений и систем можно применять «дешевые» NASы. Но в целом можно сократить вложения в системы хранения, если сеть дата-центра строится с достаточным запасом пропускной способности и имеет порты 10G Ethernet.
Что можно посоветовать в сложившейся сегодня ситуации, как помочь решить проблему недостаточной пропускной способности?
Решение проблемы магистралей ЛВС лежит в использовании агрегированных 10G-каналов или в уже появляющихся на рынке 100G Ethernet-интерфейсов. Для соединения дата-центров, разнесенных на расстояние более 10 км, работоспособным на данный момент является первый способ. Но отметим, что предлагаемое ведущими производителями оборудование ядра сети уже сейчас поддерживает линейные платы с 100G интерфейсами. И в перспективе, когда стоимость этих плат упадет до разумных значений и появятся «дальнобойные» 100G оптические трансиверы, можно будет их добавить к вашим ЛВС.
Что может измениться в части систем резервного копирования при построении сети с 10G-интерфейсами?
С точки зрения организации резервного копирования, подключение серверов к сети интерфейсами 10G Ethernet позволит, в ряде случаев, отказаться от использования сети хранения данных и ПО медиа-серверов, а также сократить время РК. При этом возможно существенное сокращение количества оборудования и ПО, а соответственно, и стоимости его поддержки.
Для систем хранения данных наличие 10G- подключения на уровне доступа позволяет внедрять СХД с 10G-интерфейсом, в том числе – поддерживающие протокол FCoE для быстрого блочного доступа к данным. Расширяются возможности использования более дешевых устройств файлового доступа на базе 10G-подключений и протоколов типа NFS, SAMBA.
В целом все эти действия могут повлечь за собой пересмотр существующих классов данных в сторону перевода самых низших из блочного доступа в файловый или создания новых классов данных. В любом случае, здесь могут быть заложены различные механизмы экономии средств.
Требования к сетевому оборудованию ЛВС современного дата-центра
- Поддержка технологий:
- поддержка стандартов CEE как расширения Ethernet для дата-центров на уровне доступа и ядра/агрегации;
- поддержка возможности построения конвергентных сетей дата-центров с поддержкой FCoE на уровне доступа;
- наличие технологий кластеризации оборудования доступа и ядра/агрегации или виртуализации сети;
- поддержка архитектур типа Ethernet Fabric для уровня доступа;
- поддержка VLAN 802.1Q с большим количеством VLAN ID (4096);
- поддержка большого количества групп агрегации (802.3ad) и интерфейсов в группе;
- поддержка L3 на уровне ядра, протоколов FHRP (VRRP, аналогичные), протоколов динамической маршрутизации.
- Пропускная способность, расширяемость, высокая плотность портов 1G/10G:
- минимальная блокируемость оборудования, желательно – коммутация wirespeed;
- возможность upgrade путем установки линейных плат с интерфейсами 100G/40G;
- гибкое наращивание функционала путем добавления лицензий;
- возможность наращивать производительность линков от доступа к уровню ядра/агрегации в соответствии с ростом нагрузки (трафика)
с минимальным прерыванием сервисов.
- Конструктив, размещение, управление, мониторинг:
- расширяемость за счет установки различных дополнительных линейных карт или модулей;
- удобство размещения в стойке, различные форм-факторы шасси.
Можно ли сказать, что вся идея заключается исключительно в использовании более скоростного Ethernet – в 10 раз быстрее, чем один гигабит? Или есть какие-либо существенные инновационные изменения в самой технологии?
Безусловно, есть.
Прежде всего, это целый набор стандартов, разработанных и принятых IEEE, добавляющих сетям Ethernet новые качества – управление трафиком и перегрузками в сети, классы обслуживания и управление полосой пропускания для различных видов трафика, позволяющие избежать потерь фреймов и превращающих Ethernet из транспорта с негарантированной доставкой пакетов в среду без потерь (lossless). Эти стандарты часто объединяют под аббревиатурами CEE (Converged Enhanced Ethernet) или DCB (Data Center Bridging): IEEE 802.1Qbb – Priority-based Flow Control (PFC), IEEE 802.1Qaz – Enhanced Transmission Selection (ETS), IEEE 802.1Qau – Quantized Congestion Notification (QCN), DCBX – Data Center Bridging Exchange Protocol.
Следует отметить появление устройств, поддерживающих протокол IETF TRILL, представляющий собой эффективную замену традиционным протоколам резервирования типа xSTP в дата-центре и предоставляющий возможность доставки пакетов на уровне Layer 2 по множественным альтернативным маршрутам.
Кроме того, не так давно рабочей группой Т11 института INCITS была принята спецификация протокола FCoE (FC-BB-5), обеспечивающего конвергенцию трафика сетей передачи данных и СХД через 10G Ethernet-транспорт.
Помимо технологий, зафиксированных в виде стандартов, различные вендоры предлагают свои «фирменные» решения, например, обеспечивающие виртуализацию оборудования доступа, единое удобное управление оборудованием, организацию Ethernet- фабрики (Ethernet Fabric).
В последнее время на рынке появляется все больше решений, поддерживающих указанные выше технологии и стандарты.
Есть и некоторые исключительно технические новшества, например – медное соединение 10G, соединение на короткую длину (до 5 метров) с помощью кабелей Twinax или 10G-соединения c помощью активных оптических кабелей (АОС). Все они предназначены для снижения стоимости 10G-подключений.
Какие пути перехода на новую технологию возможны для заказчиков, эксплуатирующих гигабитную ЛВС в своем дата-центре?
Начинать можно с поэтапной замены оборудования доступа в серверных на поддерживающие CEE и виртуализацию ToR (Top-of-the-Rack) коммутаторов доступа, расширения использования продуктов NAS, перевода на файловый доступ части объемов данных.
Затем перейти к организации интеграции с SAN через FCoE-коммутаторы, поддерживающие подключение непосредственно к FC и multihop FCoE; перевести блочный доступ на FCoE/CEE-транспорт через естественную замену/модернизацию дисковых систем.
Для крупных дата-центров потребуется модернизация ядра ЛВС путем замены оборудования на новое ядро, поддерживающее CEE и имеющее высокую плотность 10G- портов.
Все эти мероприятия могут быть выполнены как в рамках утвержденной программы модернизации, так и в связи с «моральным» устареванием существующего оборудования.
Так какие выгоды получает заказчик в случае применения подобных технологий?
Выгоды от применения 10G и конвергентных решений можно получить за счет сокращения объемов кабельных соединений (СКС) при строительстве новых и эксплуатации старых серверных.
При использовании конвергентного транспорта существенно сокращается количество коммутаторов в СХД. Появляется уже упомянутая выше возможность перехода к упрощенной технологии резервного копирования с сокращением количества Media-серверов и ряда других устройств. Этому способствует повышение производительности ЛВС (10G), использование конвергированного транспорта. Снимаются возможные ограничения виртуализации вычислительных мощностей. А благодаря виртуализации и применению Blade-систем минимизируется количество физических подключений к сети, уменьшаются требования к занимаемому месту в серверных и, как следствие, – к количеству серверных помещений. Сокращается время восстановления серверов при аварии – время простоя бизнес-систем будет снижено. Уменьшается время простоя сети в случае сбоев за счет упрощения сетевой инфраструктуры и использования средств автоматического конфигурирования, предоставляемых Ethernet Fabric.
Каков же экономический эффект от внедрения 10G-решений?
В целом происходит сокращение операционных расходов (OPEX) на эксплуатацию уже существующего ЦОД, а также капитальных затрат (CAPEX) в случае строительства нового дата-центра.
Модернизация ЛВС позволит существенно консолидировать ресурсы компании, уменьшить количество эксплуатируемых серверных и число физических серверов. В результате суммарная экономия OPEX может достигать 20-25%, а срок окупаемости модернизации – 3-4 года.
Учитывая наличие этапности модернизации, указанного эффекта экономии OPEX невозможно достичь сразу после реализации первых этапов. Приведенная оценка учитывает полное завершение всех работ. Это следует учитывать при анализе результатов расчета и построении бизнес-планов.
Какие из представленных на рынке решений можно рекомендовать заказчикам ?
В качестве вендора для модернизации ЛВС, исходя из нашего опыта, можно рекомендовать решения компании Brocade или Cisco:
- для уровня ядра – маршрутизирующие коммутаторы Brocade MLX/XMR или Cisco Nexus 7010/7018.
- для уровня доступа – 10G ToR коммутаторы Brocade VDX 6720 или Cisco Nexus серий 5000/4000/2000.
Как оценивать перспективы внедрения данных технологий?
В каждом случае – индивидуально. Готовых рецептов для всех не существует.
Кому такие решения могут быть интересны? Кто типовой заказчик?
В данном случае речь идет о компаниях, имеющих средний или крупный дата-центр либо несколько дата-центров: операторы связи, особенно оказывающие Value Added Services ( VAS) своим клиентам, провайдеры услуг hosted дата-центров, в особенности – использующих «облачные» технологии, крупные корпоративные заказчики.
На что стоит обращать внимание при выборе решения?
На различные варианты предлагаемых решений и расчеты, подкрепляющие эффективность выбора, особенно в части OPEX. Дата-центр строится не на год, а такие параметры как стоимость электроэнергии имеют тенденцию только расти, поэтому нужно обязательно прогнозировать ситуацию на будущее.
Что может предложить компания «Инфосистемы Джет» в этой области?
Компания обладает штатом компетентных специалистов и опытом построения дата-центров, ЛВС и СХД. Кроме того, в центре сетевых решений установлено стендовое оборудование, поддерживающее 10G и FCoE. Таким образом, существует возможность демонстрации работы готового решения. Все это позволяет говорить о том, что необходимые по проекту работы будут проведены качество, с соблюдением всех сроков и максимально в соответствии с потребностями заказчика.