|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Рядовые пользователи интернета тоже вносят свой вклад в изменение требований к пропускной способности: у многих есть цифровые камеры, и люди хотят передавать отснятый ими контент через интернет. Таким образом, объем циркулирующего по интернету контента с течением времени становится все больше и больше, как на профессиональном, так и на потребительском уровнях. Во всех этих случаях при передаче данных из одного домена в другой совокупная пропускная способность ключевых сетевых узлов уже давно превышает возможности портов 10GbE [1]. Этим и обусловлено появление нового стандарта – 100GbE. Крупные ЦОД и поставщики облачных услуг уже активно применяют 100GbE и планируют через пару лет постепенно переходить на 200GbE и 400GbE. При этом уже присматриваются к скоростям, превышающим терабит [6]. Хотя есть среди крупных поставщиков и такие, которые переходят на 100GbE лишь только в этом году (например, Microsoft Azure). ЦОД, осуществляющие высокопроизводительные вычисления для финансовых услуг, государственных платформ, нефтегазовых платформ и коммунальных услуг, также начали переходить на 100GbE [5]. В корпоративных ЦОД потребность на пропускную способность несколько ниже: лишь недавно 10GbE стала здесь насущной необходимостью, а не роскошью. Однако, поскольку темпы потребления трафика растут все стремительнее, сомнительно, что 10GbE проживет в корпоративных ЦОД еще хотя бы 10 или даже пять лет. Вместо этого мы увидим быстрый переход на 25GbE и еще более быстрый на 100GbE [6]. Потому что, как отмечают аналитики Intel, интенсивность трафика внутри ЦОД ежегодно увеличивается на 25% [5]. Аналитики Dell и Hewlett Packard констатируют [4], что 2018-й – это год 100GbE для ЦОД. Еще в августе нынешнего года поставки оборудования 100GbE вдвое превысили поставки за весь 2017-й. И темпы поставок продолжают расти, поскольку ЦОД начали в массовом порядке отходить от 40GbE. Ожидается, что к 2022 году ежегодно будет поставляться 19,4 млн 100GbE-портов (в 2017-м, для сравнения, эта цифра составляла 4,6 млн) [4]. Что касается затрат, то в 2017году на 100GbE-порты было потрачено $7 млрд, а в 2020-м, по прогнозам, будет потрачено порядка $20 млрд [1] (см. рис. 1). Рисунок 1. Статистика и прогнозы спроса на сетевое оборудование Почему сейчас? 100GbE не такая уж и новая технология, так почему именно сейчас вокруг нее разворачивается такой ажиотаж? 1) Потому что эта технология созрела и подешевела. Именно в 2018 году мы перешагнули тот рубеж, когда использование в ЦОД платформ со 100-гигабитными портами стало более рентабельным, чем «штабелирование» нескольких 10-гигабитных платформ. Пример: Ciena 5170 (см. рис. 2) – компактная платформа, обеспечивающая совокупную пропускную способность в 800GbE (4x100GbE, 40x10GbE). Если для обеспечения необходимой пропускной способности требуется несколько 10-гигабитных портов, то затраты на дополнительное железо, дополнительно занимаемое пространство, избыточное потребление электроэнергии, текущее обслуживание, дополнительные запчасти и дополнительные системы охлаждения складываются в достаточно кругленькую сумму [1]. Так например, специалисты Hewlett Packard, анализируя потенциальные преимущества перехода от 10GbE к 100GbE, пришли к следующим цифрам: производительность выше на 56%, суммарные затраты меньше на 27%, меньше потребление электроэнергии на 31%, упрощение кабельных взаимосвязей на 38% [5]. Рисунок 2. Ciena 5170: пример платформы со 100-гигабитными портами 2) Juniper и Cisco наконец-то создали свои собственные микросхемы ASIC для коммутаторов 100GbE [5]. Что является красноречивым подтверждением того факта, что технология 100GbE действительно созрела. Дело в том, что микросхемы ASIC рентабельно создавать только тогда, когда, во-первых, реализуемая на них логика не потребует изменений в обозримом будущем и, во-вторых, когда изготавливается большое количество идентичных микросхем. Juniper и Cisco не стали бы производить эти ASIC, не будучи уверенными в зрелости 100GbE. 3) Потому что Broadcom, Cavium и Mellanox Technologie начали штамповать процессоры с поддержкой 100GbE, и эти процессоры уже используются в коммутаторах таких производителей, как Dell, Hewlett Packard, Huawei Technologies, Lenovo Group и др. [5]. 4) Потому что серверы, размещенные в серверных стойках, все чаще оснащаются новейшими сетевыми адаптерами Intel (см. рис. 3) с двумя 25-гигабитными портами, а иногда даже конвергентными сетевыми адаптерами с двумя 40-гигабитными портами (XXV710 и XL710). Рисунок 3. Новейшие сетевые адаптеры Intel: XXV710 и XL710 5) Потому что оборудование 100GbE имеет обратную совместимость, что упрощает развертывание: можно повторно использовать уже проброшенные кабели (достаточно подключить к ним новый приемопередатчик). Кроме того, доступность 100GbE подготавливает нас к новым технологиям, таким как:
Рисунок 4. Samsung Evo Pro 256 GB NVMe PCIe SSD Рисунок 5. Storage Area Network (SAN) / Software Defined Storage (SDS) Эти технологии без 100GbE не могли бы реализовать свой потенциал в полной мере. Наконец, в качестве экзотического примера практической востребованности применения 100GbE и смежных высокоскоростных технологий можно привести научное облако Кембриджского университета (см. рис. 6), которое построено наоснове 100GbE (Spectrum SN2700 Ethernet switches) для того, чтобы в числе прочего обеспечивать эффективную работу распределенного дискового хранилища NexentaEdge SDS, которое легко может перегрузить сеть 10/40GbE [2]. Рисунок 6. Фрагмент научного облака Кембриджского университета Подобные высокопроизводительные научные облака разворачивают для решения самых разнообразных прикладных научных задач [9, 12]. Так, например, ученые-медики задействуют такие облака для расшифровки генома человека, аканалы 100GbE используют для передачи информации между исследовательскими группами университетов.
Ключевые слова: 100GbE, трафик, облака, дисковые хранилища. Комментарии отсутствуют
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|