The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

форумы  помощь  поиск  регистрация  майллист  ВХОД  слежка  RSS
"CISCO Etherchanel + Linux bonding"
Вариант для распечатки  
Пред. тема | След. тема 
Форумы Маршрутизаторы CISCO и др. оборудование. (Public)
Изначальное сообщение [Проследить за развитием треда]

"CISCO Etherchanel + Linux bonding"  
Сообщение от Oleg email(??) on 27-Апр-06, 19:54 
Люди хелп! Перелопатил весь инет, так ничего и не нашел. Суть в следующем:
Есть Cisco Catalyst 2970G-24TS-E + 2 сервака SLES9 Sp3 Linux (FujitsuSimens RX220) с двухпортовыми гигабитными платами.
Схема такая:
SLES1 NIC1 <--> CATALYST <--> SLES2 NIC1
SLES1 NIC2 <--> CATALYST <--> SLES2 NIC2

Так вот вопрос, как сделать из двух линков по 1Gb, общий в 2Gb, т.е. например что бы 1 файл можно было лить со скоростью около 200Мбайт/с(около 2Гбит) с одного сервера на другой?

Теперь самое интересное:
Было перепробовано почти все что есть на просторах инета по кофигурации CISCO но результат = 1Гб из двух линков. Как сделать 2Gb? Нужно именно большая пропускная способность!
Для тех кто говорит показать конфиг, все варианты не смогу сюда поместить :) Упор делался на Etherchannel в разных режимах в том числе и всякие вариации а ля switchport trunk encapsulation dot1q, channel-group 1 mode on, channel-group 1 mode active и т.д.
Также было опробовано так:
1.SLES1 NIC1 <--> SLES2 NIC1
  SLES1 NIC2 <--> SLES2 NIC2
В режиме RoundRobin(bond mode=0(всего их 6)) поднялось около 2Gbps, в других режимах только 1Gbps

2. SLES1 NIC1 <--> тупой Dlink 100Mb<--> SLES2 NIC1
   SLES1 NIC2 <--> тупой Dlink 100Mb<--> SLES2 NIC2
только в режиме RoundRobin(bond mode=0) поднялось около 200Mbps, в других режимах только 100, но работает!

Через CISCO никак не получается! :(

Тестировал при помощи Netio(которая умеет показывать реальную ширину канала, я так понимаю одним потоком).

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

 Оглавление

Сообщения по теме [Сортировка по времени, UBB]


1. "CISCO Etherchanel + Linux bonding"  
Сообщение от Anton email(??) on 27-Апр-06, 22:33 
Проблема в том, что скорость копирования файлов больше не от ширины канала зависит, а от скорости винтов... У меня например что с линукса с бондингом(2Gbit) и самбой, что с win2k3 с тимингом(2Gbit) тянется со скоростью ~25-30 мегабайт в секунду и не больше а iperf(http://dast.nlanr.net/Projects/Iperf/) между сервером и клиентом сидящем на 1Gbit-е показывает 650-750 мегабайт в секунду максимум.
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

2. "CISCO Etherchanel + Linux bonding"  
Сообщение от Anton email(??) on 27-Апр-06, 22:36 
Забыл сказать...
Немного помогает включение jumbo frames  на каталисте и увеличение MTU до 9000 и MaxWindow до 20 метров на клиентах...
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

3. "CISCO Etherchanel + Linux bonding"  
Сообщение от Саша (??) on 27-Апр-06, 23:25 
>Забыл сказать...
>Немного помогает включение jumbo frames  на каталисте и увеличение MTU до
>9000 и MaxWindow до 20 метров на клиентах...

причем тут джумбо фреймы  ?


Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

5. "CISCO Etherchanel + Linux bonding"  
Сообщение от Oleg email(??) on 28-Апр-06, 09:39 
>Проблема в том, что скорость копирования файлов больше не от ширины канала
>зависит, а от скорости винтов... У меня например что с линукса
>с бондингом(2Gbit) и самбой, что с win2k3 с тимингом(2Gbit) тянется со
>скоростью ~25-30 мегабайт в секунду и не больше а iperf(http://dast.nlanr.net/Projects/Iperf/) между
>сервером и клиентом сидящем на 1Gbit-е показывает 650-750 мегабайт в секунду
>максимум.
А если NetApp Fas3020 у меня? который по минимуму 200МБайт/с дает? И мне надо выжать из этого всего максимум(Хочется 300-400Мбайт/сек)? Так что веники нипричем. Я понимаю что есть еще FiberChannel, но хочется понять почему Etherchannel не работает? Ведь везде сказано что работает, наверное просто никто не тестировал!
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

4. "CISCO Etherchanel + Linux bonding"  
Сообщение от Ilia Kuliev on 28-Апр-06, 09:11 
Дык эта.... Вы как проверяли-то? Etherchannel дает увеличение производительности только _в_среднем_. Поскольку переключение потоков данных осуществляется, в зависимости от режима работы, на основании MAC-адреса источника или приемника, или IP-адреса источника или приемника. То-есть, если вы гоняете данные между сервером и рабочей ствнцией, у вас в любом случае будет задействован только один линк. Вот если подключится вторая станция - к ней данные пойдут по второму линку. Может быть. А может быть, и нет - как фишка (т.е. MAC или IP) ляжет...
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

6. "CISCO Etherchanel + Linux bonding"  
Сообщение от Oleg (??) on 05-Май-06, 18:09 
Многоуважаемый, ALL
Неужели никто не знает, никто не тестил?

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

7. "CISCO Etherchanel + Linux bonding"  
Сообщение от Аноним on 10-Май-06, 13:57 
>Многоуважаемый, ALL
>Неужели никто не знает, никто не тестил?

Тоже заинтересован в ответе на данный вопрос.

Попутный вопрос: А сколько удалось реально получить в плане скорости на одном линке в 1Gbit?
Я имею ввиду не чисто сетевой тест, а тест с задействованием устройства хранения
и файловой системы. Максимум что я видел на внешнем SCSI RAID U320 (по hdparm ~125Mb/s) по 1 Гбит линку через nfs и ftp примерно 60-70 Mb/s при линейной передаче (файловая система ext3 или xfs, Jumbo frames не влючены).
Упомянутый здесь тест по iperf дает порядка 1Gbit,(а 600-700Mbit у предыдущего оратора между сервером и клиентской станцией получилось скорее из-за ограничения шины PCI у клиента)


Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

8. "CISCO Etherchanel + Linux bonding"  
Сообщение от Oleg (??) on 10-Май-06, 23:23 
мои результаты при помощи Netio, на одном линке в 1Gb, достигли показателя порядка 114 000kbyte/s
На счет SCSI+Net сказать не могу, так как меня больше интересует сервер который взаимодействует с сетевым хранилищем(в моем случае FAS3020 который без проблем прокачивает минимум 2Gb,так как на 1Gb он работает со свистом) вопрос все таки как получить на нескольких линках реальный эффект скорости, а не в лучшем случае распараллеливание потоков(и то я что то уже не совсем уверен в этом, что это так :) )
А самый прикол что тупые DLINK работают как и должны, правда на 100мб+100мб :). Гигабитных dlink'ов я не нашел. Так что челы юзайте DLink+Surecom :) :) :) :) И будет вам счастье, а бы не зависали :):):)
А SCSI RAID можно попробовать кстати заюзать в stripe, что бы получить большую скорость. При наличии серьезного контроллера, а то я видел не которые которые делали стрип,а скорость как на одном венике/канале. Короче одно название, софтверный на порядок лучше отрабатывал :)
Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

9. "CISCO Etherchanel + Linux bonding"  
Сообщение от Аноним on 12-Май-06, 07:32 
>вопрос
>все таки как получить на нескольких линках реальный эффект скорости, а
>не в лучшем случае распараллеливание потоков(и то я что то уже
>не совсем уверен в этом, что это так :) )

linux-2.6.16.x/Documentation/networking/bonding.txt
Пункт 13.1.1
........skiped..........
balance-rr: This mode is the only mode that will permit a single
        TCP/IP connection to stripe traffic across multiple
        interfaces. It is therefore the only mode that will allow a
        single TCP/IP stream to utilize more than one interface's
        worth of throughput.
.........skiped.........
This mode requires the switch to have the appropriate ports
        configured for "etherchannel" or "trunking."
.........skiped.........

Так что похоже, что round robin это единственный подходящий вариант для данного случая.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

10. "CISCO Etherchanel + Linux bonding"  
Сообщение от Oleg (??) on 12-Май-06, 16:23 
>>вопрос
>>все таки как получить на нескольких линках реальный эффект скорости, а
>>не в лучшем случае распараллеливание потоков(и то я что то уже
>>не совсем уверен в этом, что это так :) )
>
>linux-2.6.16.x/Documentation/networking/bonding.txt
>Пункт 13.1.1
>........skiped..........
>balance-rr: This mode is the only mode that will permit a single
>
>        TCP/IP connection to stripe
>traffic across multiple
>        interfaces. It is therefore
>the only mode that will allow a
>        single TCP/IP stream to
>utilize more than one interface's
>        worth of throughput.
>.........skiped.........
>This mode requires the switch to have the appropriate ports
>        configured for "etherchannel" or
>"trunking."
>.........skiped.........
>
>Так что похоже, что round robin это единственный подходящий вариант для данного
>случая.


Ну типа так я и делал, и еще кучу разных вариантов, но на СISCO не работает(как в etherchannels так и просто), работает только на "тупых" свитчах или кроссах...
Наверное никто не тестил... раз все молчат.

Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

11. "CISCO Etherchanel + Linux bonding"  
Сообщение от Sergey (??) on 25-Май-06, 06:10 
Важно знать, что коммутатор пакеты для пары DST_MAC+SRC_MAC строго кидает на один порт сервера.
По этой причине чтобы сервера балансировали нагрузку между собой попробуй добится чтобы МАС адреса на сетевухах были разные и включи round robin балансировку на linux


Правка | Высказать мнение | Ответить | Cообщить модератору | Наверх

Архив | Удалить

Индекс форумов | Темы | Пред. тема | След. тема
Оцените тред (1=ужас, 5=супер)? [ 1 | 2 | 3 | 4 | 5 ] [Рекомендовать для помещения в FAQ]




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру