В сфере решений для хранения сейчас все только и говорят об «объединенных сетях» (Unified Network) и технологии Fibre Channel по IP. Однако определение архитектуры хранения, наиболее пригодной для корпоративной сети, зависит от таких критериев, как размер сети, требуемая скорость, планируемая нагрузка и доступный бюджет. К этому следует добавить, что до сих пор технология Fibre Channel over Ethernet пребывает на этапе разработки и такие решения практически никто не поставляет.
Анетт Борнеманн Самый старый и распространенный протокол в сфере сетей хранения (Storage Area Networks, SAN) — Fibre Channel (FC) — был разработан специально для подключения систем хранения. В настоящее время он обеспечивает скорость передачи данных до 8 Гбит/с, однако требует специального аппаратного обеспечения для серверов и сети. Избыточное оснащение одной SAN предполагает наличие двух адаптеров главной шины (Host Bus Adapter, HBA) на каждый сервер и не менее двух коммутаторов FC.
ISCSI В КАЧЕСТВЕ РЕШЕНИЯ НАЧАЛЬНОГО УРОВНЯ
Ответом рынка на высокую стоимость аппаратного обеспечения для FC SAN стала разработка технологии SCSI по IP (SCSI over IP). «Internet-SCSI» (iSCSI) был стандартизирован, и производители приняли этот стандарт. Таким образом за короткий срок была достигнута хорошая совместимость. Благодаря низкой стоимости приобретения решение получило распространение среди малых и средних предприятий. Решения начального уровня (сеть плюс система хранения) стоят от 2000 евро.
Для iSCSI достаточно стандартных карт GbE и коммутаторов локальной сети. При этом программный драйвер (Software Initiator) или соответствующая аппаратная карта упаковывают протокол SCSI в TCP/IP. Поскольку iSCSI предусматривает передачу блоков данных, эта технология относится к решениям SAN. В FC SAN протокол SCSI упаковывается в FC, в iSCSI SAN — в TCP/IP. Кроме того, операционная система рассматривает диски iSCSI в качестве внутренних жестких дисков, поэтому iSCSI пригоден и для использования с базами данных.
Такой подход позволяет просто и экономично объединить системы хранения с прямым подключением (Direct Attached Storage, DAS) и превратить их в централизованные решения. Тем самым сокращаются затраты усилий на администрирование и экономится энергия («зеленые ИТ»). Кроме того, централизация систем хранения позволяет повысить их доступность, если данные, к примеру, тиражируются из системы хранения на другую площадку. Без проблем можно реализовать избыточное подключение серверов по нескольким путям (Multipathing).
Хоть пропускная способность iSCSI ниже, чем у FC или FCoE, но ее оказывается достаточно для большинства приложений, а решающее преимущество заключается в экономии денежных средств. По той же причине пользователям следует применять именно GbE, а не 10GbE. В таком случае скорость передачи полезных данных оказывается ограничена 80-90 Мбайт/с, однако если SAN поддерживает несколько путей (Multipathing) и циклическое обслуживание (Round Robin; использование двух соединений GbE), то пропускная способность увеличивается до 150 Мбайт/с.
Дополнительно необходимо активировать передачу кадров увеличенного размера (Jumbo Frames). 9216 — оптимальное значение максимального размера пакетов (MTU) для задействованных устройств при 32-разрядной проверочной сумме для транспорта пакетов по 8 Кбайт, включая информацию из заголовков. На время задержки практически невозможно повлиять, также как и на высокую нагрузку на сервер. Если упаковка пакетов осуществляется программным инициатором и с помощью центрального процессора, то в результате можно потерять значительную часть мощности ЦПУ. Однако во многих случаях даже GbE iSCSI оказывается достаточным для файловых серверов, серверов Web, небольших серверов баз данных и приложений.
Из соображений производительности и безопасности сеть iSCSI изолируется от остальной локальной сети и, в зависимости от требований, оснащается избыточно. Серверу требуется либо специальная карта iSCSI (iSCSI HBA), либо программный инициатор в сочетании с сетевой картой. Многие карты GbE уже обладают такими функциями iSCSI, как «механизм разгрузки TCP» (TCP Offload Engine) или удаленная загрузка iSCSI (iSCSI Remote Boot) в серверных картах Intel PRO/1000 PCIe. При использовании сетевых карт формата PCI Express сервер загружается с целевого устройства iSCSI (iSCSI Target), и ему не нужны внутренние системные диски. Дальнейшая ретрансляция данных iSCSI на диски SAS, SATA или FC, или на магнитные ленты осуществляется под управлением системы iSCSI RAID или сетевого компонента iSCSI (маршрутизатор или мост). Оба варианта на протяжении длительного времени представлены в различных версиях — от выгодных предложений начального уровня (Open-E DSS) до корпоративных решений в кластере высокой готовности (к примеру, Sanrad V-Switch).
Система iSCSI RAID построена как FC RAID и предоставляет свои внутренние жесткие диски (или их части) через iSCSI в распоряжение других пользователей. Большинство производителей (EMC, Hitachi, IBM, HP, Infortrend и др.) предлагают системы RAID как с портами FC, так и iSCSI. Обычно все устройства очень похожи, вплоть до интерфейса. Для того чтобы подключить к сети iSCSI существующие устройства хранения, следует использовать маршрутизатор iSCSI, который преобразует iSCSI в Fibre Channel или SCSI (см. Рисунок 1). Благодаря этому можно легко интегрировать имеющуюся библиотеку, оснащенную дисками SCSI, в сеть iSCSI.
Рисунок 1. Маршрутизатор iSCSI позволяет включить существующее оборудование для хранения в сеть iSCSI.
Почти все системы NAS предлагают дополнительные сервисы iSCSI. К примеру, компания NetApp с самого начала оснащала свои системы технологией iSCSI. Другие поставщики, в частности, Open-E или Reldata, предоставляют такие функции под лозунгом «объединенные системы хранения» (Unified Storage).
FCOE — ОБЪЕДИНЕННЫЕ СЕТИ
Новейшая разработка в сфере систем хранения — Fibre Channel over Ethernet, или FCoE. Главный недостаток решений FC заключается в специальном аппаратном обеспечении и необходимости создания отдельной сети для подключения систем хранения, зато обеспечивается высокая производительность. В соответствии с поставленными задачами техно-логия FCoE должна была быть столь же производительной, как FC, надежно транспортироваться по Ethernet и поддерживать общее аппаратное обеспечение для данных (систем хранения) и подключения клиентов. Главная цель решения — создание высокопроизводительного и высокоизбыточного соединения Ethernet в ЦОД для всех служб данных. Это экономит энергию и упрощает процесс администрирования.
FCoE можно рассматривать как эволюцию протокола iSCSI, инкапсулирующего протокол FC в кадры Ethernet. Протоколу Ethernet требуются некоторые расширения для улучшения производительности. Так, один кадр FC всегда упаковывается в кадр Ethernet, а именно в стандартный кадр Ethernet второго уровня (Layer 2 Ethernet Frame) с пометкой FCoE. Кроме того, разработчики FCoE все еще пытаются сократить задержки и усовершенствовать функцию распределения приоритетов в протоколе Ethernet. По сравнению с iSCSI, FCoE отличает меньшее время задержки, в нем можно регулировать приоритеты трафика данных, а накладные расходы (Overhead) значительно ниже.
В отличие от FC SAN для FCoE не требуются новое аппаратное обеспечение и система управления. Передача данных и хранение осуществляется в рамках одной общей сети (см. Рисунок 2). Однако инвестиции в FCoE оправдываются лишь для крупных центров обработки данных, которые в противном случае вложили бы средства в полномасштабную инфраструктуру FC. Возможности FCoE могут быть полностью реализованы лишь в среде 10 Гбит/с. Для этого потребуются определенные сетевые карты FCoE и высокопроизводительные коммутаторы, поддерживающие все функции FCoE. Иначе говоря, в отличие от iSCSI, традиционные аппаратные решения для Ethernet не подходят.
Рисунок 2. Объединенная сеть в ЦОД с использованием Fibre Channel по Ethernet. В настоящее время аппаратное обес-печение для FCoE находится на стадии разработки, поэтому предложение доступных устройств весьма ограничено: Intel объявила о выпуске первой комбинированной сетевой карты 10 Гбит/с в апреле 2008 г., а Qlogic в августе представила свою первую карту FCoE (QLE8042), их продвижением они намереваются заняться вместе с Cisco (серия Nexus 5000). Цена на эти компоненты значительно превышает стоимость соответствующего аппаратного обеспечения для FC.
При использовании устройств хранения (системы RAID, ленточные накопители) до сих пор приходится прибегать к помощи преобразователей: к примеру, коммутатор FCoE Nexus 5000 с портами FC обеспечивает плавную миграцию от FC к FCoE. Тем, кто планирует перестраивать свою структуру (сеть и системы хранения), необходимо подробно рассмотреть преимущества и недостатки FCoE, прежде чем интегрировать это решение в собственную среду.
РАЗЛИЧИЯ В СКОРОСТИ
Одним из решающих критериев выбора являются реальные различия в полезной пропускной способности между FC на 8 Гбит/с, iSCSI с GbE и FCoE с 10 Гбит/с. Это становится понятно из сравнения с автомагистралью: при небольшой плотности движения автомобили могут даже на однополосной дороге (iSCSI в сети 1 Гбит/с) ехать с максимальной скоростью. Однако с увеличением количества машин на шоссе возникают пробки. Если автомагистраль восьмиполосная (FC на 8 Гбит/с ), то гораздо больше машин сможет ехать на максимальной скорости. В случае с FCoE получается десятиполосная автотрасса, но на ней нужно отделять грузовики (системы хранения) от спортивных машин (локальная сеть).
Прямое сравнение iSCSI на 1 Гбит/с и FC на 1 Гбит/с наглядно демонстрирует различия. FC оптимизирован для передачи больших объемов данных, а Ethernet — для транзакций малой емкости. Обе технологии базируются на скорости передачи в 1065 бит/с, однако содержание полезных данных, а также управление со стороны процессора очень сильно различаются. GbE позволяет достичь скорости передачи от 50 до 80 Мбайт/с в зависимости от количества пользователей и структуры данных. В FC даже при неблагоприятной комбинации факторов скорость составляет около 90 Мбайт/с.
Еще один показатель для сравнения — количество прерываний процессора при передаче данных. У Ethernet он значительно выше, чем у FC, что оборачивается весьма значительной нагрузкой на сервер, правда, в iSCSI SAN ее можно сократить с помощью специальных карт iSCSI или механизмов разгрузки TCP — они берут на себя весь процесс преобразования. Кроме того, пользователь может объединить несколько соединений GbE или перейти на 10GbE. В обоих случаях нужно применять iSCSI HBA, поскольку программному инициатору не хватит мощности даже современных процессоров.
Как свидетельствуют результаты первых тестов с предлагаемым аппаратным обеспечением, пропускная способность FCoE соответствует уровню FC. Однако о продуктивном применении FCoE
в качестве консолидированной (и единственной) среды передачи говорить пока еще рано.
ЗАКЛЮЧЕНИЕ
FC до сих пор остается стандартным способом организации сети хранения в ЦОД. Эта технология вполне зрелая, и все значимые производители предлагают свои системы хранения или устройства резервного копирования на ленту с интерфейсами FC. 8 Гбит/с обеспечивают достаточную производительность, инфраструктура проста в обслуживании и надежна.
iSCSI наверняка завоюет еще большую популярность в начальном сегменте. Стоимость аппаратного обеспечения (GbE) низка, а производительности во многих случаях более чем достаточно. Благодаря появлению все более мощных процессоров вопрос нагрузки на процессор отходит на задний план. Даже если в четырехъядерном сервере целое ядро будет занято обслуживанием iSCSI, оставшейся вычислительной мощности процессора хватит для множества приложений.
FCoE находится лишь на начальном этапе своего развития. Подход, при котором создается одна сеть для всех задач, весьма многообещающ. Крупные ЦОД смогут добиться значительной экономии в области энергоснабжения и охлаждения. К тому же в одном сервере высотой в одну монтажную единицу весьма проблематично разместить две карты FC
и две карты GbE, а для FCoE потребуются всего две карты или одна двухканальная (Dual Channel) карта.
Анетт Борнеманн — руководитель компании StorIT Back, поставщика решений для хранения и резервного копирования.