100GbE (100 Gigabit Ethernet, IEEE 802.3ba) — стандарт высокоскоростного Ethernet с полосой пропускания 100 Гбит/с. Обеспечивает теоретическую пропускную способность 12,5 ГБ/с — достаточно для насыщения нескольких NVMe-дисков одновременно или десятков 10GbE-серверов в агрегате. В типичном дата-центре 100GbE применяется в магистральных каналах, spine-коммутаторах и серверах хранения.
Форм-факторы и кабели
100GbE использует несколько физических стандартов:
- QSFP28 (Quad Small Form-factor Pluggable 28) — наиболее распространённый разъём. 4 полосы по 25G. DAC-кабели (Direct Attach Copper) до 5 м, оптические трансиверы — до 100 км (DWDM).
- QSFP-DD (Double Density) — 2 QSFP28 в одном разъёме, 8 полос по 25G. Для 200G/400G с разбивкой.
- CFP (C Form-factor Pluggable) — ранний стандарт, крупнее QSFP, сегодня устарел для 100G.
Где применяется 100GbE
Spine-leaf архитектура: leaf-коммутаторы (25/10GbE к серверам) uplink к spine по 100GbE. Серверы хранения (SAN, NAS) с десятками NVMe-дисков: суммарный I/O дисков требует 100GbE, иначе сеть становится узким местом. Высокочастотный трейдинг: задержка 100GbE RDMA менее 1 мкс. Гиперскейлеры (Google, Amazon, Microsoft): 100GbE — стандарт между стойками с 2015–2018 годов.
100GbE в сравнении с 25GbE и 400GbE
25GbE — актуальный стандарт для серверных подключений в 2023–2024 годах. 100GbE — для top-of-rack коммутаторов и аплинков. 400GbE (IEEE 802.3bs, 2017) — активно внедряется в гиперскейл-дата-центрах с 2020 года. 800GbE стандартизируется. Переход от 100G к 400G аналогичен переходу 40G → 100G: прыжок через промежуточную скорость в пользу x4.
Задержка vs пропускная способность
100GbE обеспечивает высокую пропускную способность, но задержка (latency) определяется не скоростью, а временем распространения и обработки в коммутаторе. RTT между серверами в одном дата-центре по 100GbE — 1–2 мкс (RDMA-over-Converged-Ethernet, RoCE). Обычный TCP — 5–20 мкс. 10GbE и 100GbE имеют сопоставимую latency при RDMA.
История
100GbE стандарт IEEE 802.3ba принят в 2010 году. Первые 100GbE чипы — Mellanox ConnectX-3 (2011). К 2015 году 100GbE стал экономически доступен для крупных дата-центров. Google сообщил о полном переходе на 100GbE в дата-центрах в 2015 году. В 2024 году гиперскейлеры переходят на 400GbE и 800GbE.
100 GbE технологии и разъёмы
100 GbE реализован через несколько физических стандартов: 100GBASE-SR4 — 4 полосы по 25 Гбит/с, многомодовый оптический кабель, до 100 м, разъём MPO-12; 100GBASE-LR4 — 4 волны CWDM, одномодовый оптический, до 10 км; 100GBASE-CR4 — DAC (Direct Attach Copper), 4 дорожки, медные кабели до 5 м; 100GBASE-KR4 — бэкплейн, до 1 м. Разъёмы модулей: QSFP28 (100G), CFP2/CFP4 для дальних расстояний.
Cisco, Arista, Juniper, Mellanox (NVIDIA) производят 100 GbE коммутаторы для дата-центров. Типичный порт 100 GbE стоит $200–600 на лезвийном коммутаторе; QSFP28-модуль SR4 — $30–100 (2024 год).
Когда нужен 100 GbE
100 GbE в хостинге применяется для: uplink между TOR (Top-of-Rack) коммутаторами и ядром сети ЦОД, подключения серверов с высоким сетевым трафиком (CDN edge-серверы, балансировщики нагрузки), SAN-инфраструктуры (iSCSI или NVMe-oF через Ethernet). Обычные веб-серверы не используют 100 GbE — они ограничены 1–10 GbE. Потребность в 100 GbE возникает при трафике более 1–2 Гбит/с (top-100 сайты по Рунету).
400 GbE и 800 GbE
400 GbE (IEEE 802.3bs, 2017) — следующий стандарт. 400GBASE-SR8: 8 дорожек по 50 Гбит/с. QSFP-DD и OSFP разъёмы. Используется в магистральных линиях ЦОД и hyperscale-облаках. 800 GbE находится в разработке (IEEE P802.3df, ожидается 2024–2025). Для большинства провайдеров 100 GbE — текущий стандарт магистральных соединений, а 400 GbE — в крупнейших облачных ЦОД.