
Сети
Агрегирование 10-гигабитных каналов на примере D-Link DXE-820T и D-Link DXS-1210-10TS - Тестирование и заключение
- Информация о материале
- Категория: Сети
- Опубликовано: 04.07.2017, 16:18
- Автор: ServersTech.ru
Содержание материала

Тестирование
Методика тестирования такая же как и в обзоре D-Link DXE-820T (обзор D-Link DXE-820T). В прошлых материалах (объединение в группу двух и четырех сетевых карт) Мы уже отмечали, что для утилизации пропускной способности агрегированного канала необходимо несколько клиентов, так как балансировка производится на базе MAC- или IP- адресов. Поскольку у нас на руках было только две сетевые карты D-Link DXE-820T, максимальная пропускная способность будет всего лишь 10 Гбит/с вместо 20 (если использовать настройки по умолчанию).
В iperf пропускная способность «установилась» на уровне 9,91 Гбит/с – практически теоретический максимум! Весьма достойный результат (при этом загрузка ЦП не превышала 12%).
Скорость копирования больших файлов по SMB составила 947 МБ/с.
Поскольку у Нас было только две сетевые карты, Мы «пошли обходным путем», чтобы протестировать агрегированный канал, - и решили добавить дополнительные IP-адреса обоим серверам, чтобы механизм балансировки, работающий на базе IP-адреса источника и получателя, смог распределять трафик между каналами.
Заходим в «Сетевые подключения» и жмем свойства на созданном ранее агрегированном канале.
Далее жмем на кнопку «Свойства», предварительно выбрав пункт «IP версии 4».
В открывшемся окне кликаем по кнопке «Дополнительно».
Далее жмем добавить IP-адрес.
И добавляем новый IP-адрес.
Также не забудьте в настройках коммутатора выбрать алгоритм балансировки нагрузки на базе IP-адресов источника и получателя (в разделе «Агрегирование каналов»).
И с помощью двух запущенных клиентов iperf (подсоединенных к разным IP-адресам сервера) проверяем пропускную способность.
Агрегирование каналов работает - пропускная способность выросла вдвое в обоих направлениях, достигнув 19 Гбит/с. Стоит заметить, что протестировать двунаправленную передачу данных, то есть утилизировать все 40 Гбит/с не удалось в силу недостаточной мощности ЦП: если сервер на базе Xeon E3-1275v6 в целом справлялся с задачей, хотя и загрузка ЦП была близка к 70-80%, то сервер на базе Intel Atom C2758 едва «переваривал» 30 Гбит/с.
Посмотрим, как распределяет трафик коммутатор.
Для этого зайдем в настройки коммутатора: Наблюдение-Статистика-Порт.
Загрузка обоих портов на каждой сетевой карте максимальная (агрегированный канал сервера №1 задействует 5 и 6 порты, а сервера №2 – 7 и 8).
Теперь протестируем агрегированный канал на надежность, то есть смоделируем ситуацию обрыва одного из каналов (предварительно вернув настройки по умолчанию – оставив один IP-адрес).
Запустив iperf, мы видим, что задействованы 5, 6 и 8 порты.
Отключаем кабель с 8го порта и видим, что весь трафик идет через 7ой порт, при этом сессия iperf не прерывается – перенаправление трафика происходит автоматически.
Подключив обратно 8ой порт и отключив 5ый, мы видим, что трафик теперь идет через 6ой порт.
Вернем всё на место.
Таким образом, агрегирование каналов позволяет не только увеличить пропускную способность сетевого подключения, но и повысить его надежность. Стоит заметить, что при отключении тех или иных портов сессии iperf не прерывались.
Заключение
Технология агрегирования каналов повышает не только пропускную способность сетевого подключения, но и его надежность, так например, переход с гигабитного на 10-гигабитное соединение увеличивает лишь пропускную способность, в то время как объединение сетевых карт в группу повышает еще и надежность соединения благодаря механизму балансировки, который автоматически распределяет сетевой трафик по имеющимся каналам.