The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Релиз Proxmox VE 5.2, дистрибутива для организации работы виртуальных серверов

17.05.2018 10:28

Доступен релиз Proxmox Virtual Environment 5.2, специализированного Linux-дистрибутива на базе Debian GNU/Linux, нацеленного на развертывание и обслуживание виртуальных серверов с использованием LXC и KVM, и способного выступить в роли замены таких продуктов, как VMware vSphere, Microsoft Hyper-V и Citrix XenServer. Размер установочного iso-образа 611 Мб.

Proxmox VE предоставляет средства для развёртывания полностью готовой системы виртуальных серверов промышленного уровня с управлением через web-интерфейс, рассчитанный на управление сотнями или даже тысячами виртуальных машин. Дистрибутив имеет встроенные инструменты для организации резервного копирования виртуальных окружений и доступную из коробки поддержку кластеризации, включая возможность миграции виртуальных окружений с одного узла на другой без остановки работы. Среди особенностей web-интерфейса : поддержка безопасной VNC-консоли; управление доступом ко всем доступным объектам (VM, хранилище, узлы и т.п.) на основе ролей; поддержка различных механизмов аутентификации (MS ADS, LDAP, Linux PAM, Proxmox VE authentication).

В новом выпуске:

  • Пакетная база обновлена до Debian Stretch 9.4, задействовано ядро Linux 4.15.17 (ранее было 4.13). Обновлены версии QEMU 2.11.1, LXC 3.0.0, Ceph 12.2.5, ZFS 0.7.8;
  • Добавлена поддержка Cloudinit, инструментов для начальной настройки виртуальных машин, первой загрузки и развёртывания типовых окружений в соответствии с заданным шаблоном;
  • Расширены возможности GUI: Появилась возможность создания и присоединения узлов кластера через GUI. Предоставлен интерфейс управления сертификатами Let´s Encrypt. Добавлен GUI для управления ролями. Предложена возможность переключения GUI между расширенным и базовым режимами;
  • Добавлен плагин для подключения хранилищ с использованием протокола SMB/CIFS (поддерживается размещение на таких внешних хранилищах резервных копий, системных образов, шаблонов, iso-образов и образов контейнеров);
  • Обеспечено отображение IP-адресов виртуальных машин (используется qemu-guest-agent);
  • В LXC добавлена поддержка шаблонов, операций клонирования окружений, перемещения разделов и дисков;
  • Добавлена возможность ограничения пропускной способности ввода/вывода для операций восстановления;
  • Переработана интеграция терминала в web-интерфейс (используется xterm.js)
  • В Proxmox VE Firewall добавлена поддержка ebtables (межсетевой экран для сетевых мостов).


  1. Главная ссылка к новости (https://www.proxmox.com/en/new...)
  2. OpenNews: Proxmox Mail Gateway 5 стал открытым продуктом
  3. OpenNews: Релиз Proxmox VE 5.1, дистрибутива для организации работы виртуальных серверов
  4. OpenNews: Релиз Proxmox VE 5.0, дистрибутива для организации работы виртуальных серверов
Лицензия: CC BY 3.0
Короткая ссылка: https://opennet.ru/48613-proxmox
Ключевые слова: proxmox, virtual
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (80) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.4, Catwoolfii (ok), 10:54, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • –2 +/
    Cloudinit с гостем FreeBSD не работает
     
     
  • 2.32, Аноним (-), 18:28, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    багтрекер не здесь
     
     
  • 3.55, Catwoolfii (ok), 07:49, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Да ты че? А мужики то не знали... Умничай в другом месте
     
  • 2.70, пох (?), 12:44, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    а должен? По-моему эта поделка - linux-only by design...

     

  • 1.5, DKG (?), 11:14, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Единственный адекватный бесплатный конкурент XCP-NG.
     
     
  • 2.15, Минона (ok), 13:32, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    еще oVirt есть
     
     
  • 3.19, Аноним (-), 14:59, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Vmmanager тоже бесплатный, при некоторых ограничениях
     
  • 3.20, _KUL (ok), 15:00, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    oVirt это надстройка, а Proxmox это готовый продукт, ещё и с контейнерами.
     
     
  • 4.23, Минона (ok), 15:49, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    готовый oVirt как продукт называется RHV.
    Proxmox тоже можно назвать надстройкой над KVM, QEMU, etc.
     
     
  • 5.47, _KUL (ok), 00:00, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • –2 +/
    oVirt нельзя записать на диск, вставить в голое железо, нажать "сделать новую ноду" и уйти к себе в подсобку админить через удалённую консоль.
     
     
  • 6.57, Святоша (?), 08:07, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +3 +/
    oVirt Node не слышали?
     

  • 1.6, Аноним (-), 11:17, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Поддержку mdadm в установщик включили?
     
     
  • 2.8, Turbid (??), 11:33, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +3 +/
    Устанавливай пакетом поверх чистого Debian, предварительно размазанного по софтовому рейду.
     
     
  • 3.11, commiethebeastie (ok), 12:14, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    И LVM можно по-человечески разметить.
     
  • 2.9, фтщтшь (?), 11:44, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Да он вообщем, то и ненужен. Все равно установка через дебиан, не менее удобна и быстра (а может, кстати, и удобней).
     
  • 2.10, Минона (ok), 12:11, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    для софтовых рейдов там есть zfs
     
     
  • 3.22, kvaps (ok), 15:32, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Причем вкомпиленная в ядро и без всяких там dkms
     
     
  • 4.50, пох (?), 01:20, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    лолшта?
    Эх... а прикидывался "специалистом" :-(

     
     
  • 5.63, kvaps (ok), 10:47, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > лолшта?

    Возможно не так выразился.
    Имелось ввиду zfs-модули поставляются одним пакетом вместе с ядром и вам не нужно заморачиваться с динамической компиляцией модулей при каждом обновлении ядра.

     
     
  • 6.66, пох (?), 11:16, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    а, в ентом смисле... ну так dkms для того и придумали, чтобы заморачиваться не самому, а скрипту, причем пакету с ядром незачем при этом что-то лишнее знать о том, какие там еще левые модули ему надо пересобрать.
    (он феерически уродлив, но какая нахрен разница - пока работает)

    так что скорее наоборот - пошли по самому простому пути, собрав модули, гвоздем прибитые к конкретной версии ядра.

    а так - как были они отдельной пачкой .ko, так и остаются. Впрочем, какая нафиг разница...

    забавнее другое - в списке модулей работающей ve торчит btrfs (громадный, ненужный и неподдерживаемый) - ниасилили заменить дебиановский initrd чем-то своим?

     
  • 5.83, Аноним (-), 01:35, 23/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Вообще, нет проблемы вкомпилить zfs+spl статически прямо в ядро.
     
  • 3.44, пох (?), 23:09, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    попробовал я этот zfs Ну, что вам сказать когда система бодро соглашается ст... большой текст свёрнут, показать
     
     
  • 4.48, Alex (??), 00:28, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +3 +/
    неосилятор в треде
    все в машину
     
     
  • 5.51, пох (?), 01:28, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    простите, чего именно я не осилил в next-next-next-ok впрочем, надо признать, ... большой текст свёрнут, показать
     
     
  • 6.56, Docent (??), 08:05, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Ну что-то точно не осилил.
    Пользуюсь Проксмоксом с 2010 года.
    Установил больше 10 кластеров (не хостов).
    Ставил на mdadm, DRBD, glusterfs, zfs - различные проблемы вылазят везде, но с ними жить можно, за такую то цену.
     
     
  • 7.64, пох (?), 10:59, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • –2 +/
    уменявсеработает , ага, ага если различные проблемы вылазят даже в таком про... большой текст свёрнут, показать
     
     
  • 8.65, EHLO (?), 11:10, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    ага, и у меня всё работает Совпадение А ты продолжай искать оправдание своим м... текст свёрнут, показать
     
     
  • 9.68, пох (?), 12:02, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    ох уж и мучаюсь-мучаюсь кстати, нифига не с 2010, а гораздо раньше, еще с gsx и... текст свёрнут, показать
     
     
  • 10.75, Аноним (-), 09:02, 19/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Вы парни умилительные Всё у вас работает, хотя в багтрекерах навалом всякого 1... текст свёрнут, показать
     
     
  • 11.77, пох (?), 12:38, 19/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    в багтрекерах сложных систем - всегда навалом всякого , включая 12309 Причем - ... большой текст свёрнут, показать
     
     
  • 12.82, EHLO (?), 10:38, 21/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Сходи-ка на багтрекер и форум PVE Посмотрим каким местом ты устанавливал и наск... текст свёрнут, показать
     
  • 2.24, Michael Shigorin (ok), 16:23, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    В альтовый -- да, если что (есть стартеркит и страничка на вики).

    PS: привет коллегам, у нас BVE вполне себе в работе :)
    PPS: ...и ещё привет с osday.ru, сейчас про embox+mesa рассказывают

     
  • 2.30, В (?), 17:13, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Их позиция всегда была, что его они не будут поддерживать. Купите себе либо железный raid, либо пользуйтесь рекомендованный ZFS (который куда как удобнее самому PVE для хранения машин).
     

  • 1.12, Аноним (-), 13:02, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Обновления по платной подписке?
     
     
  • 2.13, SunXE (ok), 13:13, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    По платной только стабильные обновления.
     
     
  • 3.16, Аноним (-), 13:40, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Для нескольких хостов, лучше будет поставить обычный дистрибутив Linux с KVM.
    И все обновления будут бесплатные :)
     
     
  • 4.21, _KUL (ok), 15:03, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Все свежие обновы и тут бесплатны
     
  • 2.35, Олег (??), 19:12, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Сравнивали платную и бесплатную репу 1 к1 шло
    Так что условно платно
     

  • 1.14, Аноним (-), 13:26, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >задействовано ядро Linux 4.15.17 (ранее было 4.13

    и они умеют выбирать ядра без longterm... но зачем?

     
     
  • 2.45, a (??), 23:53, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Вот я тоже голову сломал, 4.14 просто проигнорили
     
  • 2.52, пох (?), 02:01, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >>задействовано ядро Linux 4.15.17 (ранее было 4.13
    > и они умеют выбирать ядра без longterm... но зачем?

    lxc и ceph.
    Разработчики гонятся за фичами только-что-едва-успетыми впихнуть в очередное ведро.


     
     
  • 3.76, Аноним (-), 09:17, 19/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Как известно ученический ход - это коллекционирование ошибок.
    Подозреваю, хитрые люди из компании проксмокс хотя подучить пользователей. -)

    А если серьёзно, конкуренция толкает их к добавлению всякого. В управлении компании прекрасно понимают, что новые технологии можно обкатать только на пользователях. Чтобы начать обкатывать надо добавить абстракции, т.е. впилить графический интерфейс. Разработчики же просто выполняют поставленные задачи.

     
     
  • 4.78, пох (?), 19:08, 19/05/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    да нет, скорее "а что, еще кто-то есть?"

    нужна хранилка со снапами, хрен уж с ними с рефералами (хотя их недавно в zfs впилили, но доступа к ним из юзерспейс нет), нужно было чем-то менять мертвый и уже мумфицировавшийся openvz, нужна distributed fs и средства синхронизации кластера.

    а что разработчики всего этого (может кроме пункта 1) не умеют в принципе обратную совместимость и не желают заниматься поддержкой, вынуждает бежать впереди паровоза, иначе обратно редхат получится, а это место на рынке уже занято.

    > В управлении компании прекрасно понимают, что новые технологии можно обкатать только на
    > пользователях.

    а профит-то где? Вот в моем лице потенциальный клиент потерян лет на десять. То есть, вероятнее всего, навсегда. До наступания на баги собственно ключевых технологий дело даже не дошло.
    Я еще может где-то попытаюсь этим пользоваться для хобби-проектов, но попытки притащить эту каку в прод будут мной жестко обломаны, притащивший отправится лично разбираться, где и что там патчили в стандартном софте и как это поддерживать в случае чего самим.

    Красивые веб-интерфейсы хорошо демонстрировать высокому начальству, не слишком разбирающемуся в технологиях. А разбирающееся может внезапно ухватить за руку при кликаньи по next-next-next, и попросить показать а как тут сделать вот это. Опа, не предусмотрено разработчиками гуя? А что ими вообще-то предусмотрено - "как попало поставить абы какую vm"? А это нам - зачем?

    Впрочем, судя по списку дорогих клиентов, профит там в основном на распиле госбабла при автоматизации очередного несчастного немецкого/австрийского муниципалитета, шантажом вынужденного перебираться на опенсорсные технологии за много денег.

     

  • 1.17, ryoken (ok), 14:30, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Бродит мыслЯ посоветовать сие начальству под замену хЫперВя. Подскажите, большой будет пердолинг напрямую в виртуалку винт пробрасывать? (Есть некоторый опыт по проталкиванию в QEMU-KVM видяхи на домашнем компе)
     
     
  • 2.18, хЫперВя (?), 14:55, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    http://blog.imnotacyb.org/disk-passthrough-in-proxmox/
     
  • 2.25, Michael Shigorin (ok), 16:26, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > Бродит мыслЯ посоветовать сие начальству под замену хЫперВя.

    Сделайте сперва небольшой стендик, из которого может вырасти пилот.

     
     
  • 3.26, ryoken (ok), 16:39, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Сделайте сперва небольшой стендик, из которого может вырасти пилот.

    Тут с незадействованным железом не просто плохо, а ОЧЕНЬ плохо :D. Раскопал некий припаянный селерон (куда как ни странно завезли VT-X :D) на соответствующих размеров платке + 1Гб памяти + 2 винта, под деб+прокс и под кагбе хранилище. Ну, 1 виртуалку с вендоХП, перетянутую с текущего серванта HyperV оно конечно осиливает (запускается\грузится\логинится, видно десктоп), но терпение надо очень хорошее :D.

     
     
  • 4.42, Michael Shigorin (ok), 21:38, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >> Сделайте сперва небольшой стендик, из которого может вырасти пилот.
    > Тут с незадействованным железом не просто плохо, а ОЧЕНЬ плохо :D.

    Ну не знаю, если в Москве -- наверное, могу выручить на время (месяц-два-до_осени) чем-нить всё равно выведенным из эксплуатации.  Память тоже какая-то на полочке была (порой народ дома добавляет, ненужные планки складирует).  В общем, пишите почтой, если надо.

    Хотя лучше всего всё-таки довести до начальства, что посмотреть по сусекам вплоть до домашних на предмет неиспользуемого железа однозначно лучше -- в т.ч. и для хоть какого-то подменного фонда на случай выхода из строя чего нужного.

     
     
  • 5.53, ryoken (ok), 07:23, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Хотя лучше всего всё-таки довести до начальства, что посмотреть по сусекам вплоть
    > до домашних на предмет неиспользуемого железа однозначно лучше -- в т.ч.
    > и для хоть какого-то подменного фонда на случай выхода из строя
    > чего нужного.

    Премного благодарен за предложение. Ну в общем сначала пообщаюсь, а там уже будем делать выводы из результатов :).

     
  • 4.46, a (??), 23:59, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Не соверую, cli - просто убожество, некоторых вещей нет, - только из вэбморды.
    При клонировании не использует средства снапшотинга, а тупо копирует часами.
    При клонировании машины и нехватке ей места на диске нода падает
     
     
  • 5.71, пох (?), 13:06, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Не соверую, cli - просто убожество, некоторых вещей нет, - только из
    > вэбморды.

    эммм... огласите весь список? А то пока что-то наоборот - чего ни хватишься, в веб-морде нет. В cli что-то есть, что-то только вручную.

    > При клонировании не использует средства снапшотинга, а тупо копирует часами.

    эмм... вообще-то оно клонирует со снапшота.

    > При клонировании машины и нехватке ей места на диске нода падает

    что-то я и не удивлен


     
  • 3.58, KAPJlCOH (?), 10:00, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Привет, Малыш!
    http://susepaste.org/images/45353203.jpg
     
  • 2.27, ага (?), 16:48, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Глубокая мысль: "советую поменять на то - не знаю что"
     
     
  • 3.72, пох (?), 13:13, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Глубокая мысль: "советую поменять на то - не знаю что"

    а с чего вы решили, что он hyperv знает? Так что, скорее, "советую поменять проклятую винду (которую видел в основном на картинке и кое-как освоил с гуглем три базовые операции) на православный линyпс (который и на картинке не видел, интернет нынче дорог - но вот сейчас анонимы на форуме все подробно разъяснят)"

    А потом предлагаешь поменять что-то, у чего ворох проблем тебе хорошо известен, на что-то, что в данном случае больше подходит, и ты действительно умеешь это настроить - а тебе так, подозрительно глядя в глаза - "был у нас тут один такой линуксоукушенный, всем отделом прививки потом делали, и рабочее место продезинфицировали".

     
  • 2.29, Anonimus (??), 17:00, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Проще будет не блочное устройство прокидывать, а LVM раздел на нем.
     
  • 2.33, Аноним (-), 18:32, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    вообще не проблема. Разве что не через гуй, а через конфиг виртуалки
    root@pve:~# grep scsi /etc/pve/qemu-server/183.conf
    scsi0: local-lvm:vm-183-disk-1,size=32G
    scsi1: /dev/sdb,discard=on
    scsihw: virtio-scsi-pci
     

  • 1.28, Anonimus (??), 16:58, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Я уже как то отвык от админок - все с консоли. Так и понятнее что и как работает внутри и админки ресурсы не кушают и тюнить намного проще. По поводу сабжа, то очень много на ресурсах где обсудают Ceph спрашивают как по проблемах с которыми столкнулись после того как проксмокс начал его использовать.
     
     
  • 2.34, Аноним (-), 18:34, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > Я уже как то отвык от админок - все с консоли. Так
    > и понятнее что и как работает внутри и админки ресурсы не
    > кушают и тюнить намного проще. По поводу сабжа, то очень много
    > на ресурсах где обсудают Ceph спрашивают как по проблемах с которыми
    > столкнулись после того как проксмокс начал его использовать.

    Проксмокс - это не только гуй, а еще и обвязка для коросинка, управляшка стораджами, сетевая файловая система для синхронизации конфигов, визуализация ресурсов и прочие удобности. Из консоли это все плодить собственными костылями - мучительно рутинно.
    А у проксмокса проблемы с цеф потому что до этого его вообще в два клиека нигде нельзя было использовать. Нет цефа - нет проблем с ним.

     
     
  • 3.39, Anoninus (?), 20:45, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Это все полноценные сервисы которые достаточно просто настраиваются и интегрируются с виртуализацией. А как раз проксмокс создает костыли для этого что б можно было управлять с так называемого гуя) Поэтому если что то ломается, то найти концы в этих костылях дабы пофиксить самостоятельно - в разы сложнее...
     
  • 3.40, Аноним (-), 21:02, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Corosync там сто лет уже не используется.
     
     
  • 4.62, EHLO (?), 10:38, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Не используется rgmanager. В PVE4 отказались от него в пользу своего, более простого HA менеджера.
    Corosync на месте. Его используют и для управления кластером (pvecm) и для своей кластерной ФС pmxcfs и для HA виртуалок.
     

  • 1.31, DKG (?), 17:47, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Хороший конкурент для Xenserver.
     
  • 1.36, Аноним (-), 19:31, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    ядро чьё ? читал раньше, что оно вроде от редхата было, а тут 4,15,17, похоже что сидовское
     
     
  • 2.43, draw1 (?), 22:35, 17/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Ядро было древнее и довольно долго (не уверен, что прям один в один от редхата, но точно патченное и версий 2.6.х) когда они использовали OpenVZ для контейнеров. Как перешли на LXC (начиная вроде с версии Proxmox 4.х) так сразу и ядро обновили.
     
  • 2.54, Минона (ok), 07:27, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    ядро от убунты
     

  • 1.37, Аноним (-), 19:33, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Пакетная база обновлена до Debian Stretch 9.2

    На оф сайте >Based on Debian Stretch 9.4

     
  • 1.38, Аноним (-), 19:39, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Эвкалипт и Небула туда же
     
  • 1.41, Аноним (-), 21:31, 17/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Может кто-нибудь объяснить как PVE работает с VLAN У меня сервер с 2 сетевыми и... большой текст свёрнут, показать
     
     
  • 2.49, Vit (??), 01:03, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >[оверквотинг удален]
    > в инет. Как этого добиться?
    > Я из веб-интерфейса создавал сетевые интерфейсы с мостами/бондингом и vSwitch. В ручную
    > правил конфиг для интерфейсов, каждый раз после перезапуска интерфейса системд жаловался,
    > что не может поднять интерфейс.
    > После ребута сервера сетевые настрйоки применялись, но сервер недоступен по ssh. Приходится
    > через iLO ковырять сетевые настройки.
    > Пробовал задать первому сетевому интерфейсу статику с указанием VLAN и всё равно
    > не стартует после изменения сеть. Без настроек VLAN сетевой интерфейс поднимается
    > нормально.
    > Что я делаю не так?

    Указываешь на сетевухе виртуалки в качестве бриджа нужный физический интерфейс гипервизора и ставишь tag -- номер влана. Вот и все. Влан для гипервизора на порту свича отдавай аксесом, а уже для виртуалок будут идти тегированными


     
     
  • 3.59, Аноним (-), 10:01, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Это понятно, вопрос в другом Я не могу задать VLAN tag для сетевого интерфейса ... большой текст свёрнут, показать
     
     
  • 4.61, EHLO (?), 10:30, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >[оверквотинг удален]
    > Это понятно, вопрос в другом.
    >>Влан для гипервизора на порту свича отдавай аксесом, а уже для виртуалок будут идти тегированными
    > Я не могу задать VLAN tag для сетевого интерфейса гипервизора. Системд выдаёт
    > ошибку, что не может поднять интерфейс. Я руками вношу правку в
    > /etc/interfaces и далее # ifdown интерфейс # ifup интерфейс. Даже если
    > делаю через системд systemctl networking.service restart или stop/start всё равно интерфейс
    > не поднимается. Утилита service в этом случае даже не видит сервис
    > сетевой! После ребута интерфейс поднимается, но сервер недоступен и его никто
    > не видит. Какие-либо запросы от сервера или к серверу не проходят.
    > ifconfig показывает, что интерфейс поднят.

    Лучше не делай ifup и рестарт networking.service. Это можно, но есть нюансы. Сказываются особенности Дебиновского конфига сети, надо понимать как он работает. Я не один день маны читал и скрипты парсил.

    Если хочешь править конфиг одновременно из консоли и из ГУЯ, или видеть как Proxmox понимает твои правки, используй /etc/network/interfaces.new, а затем ребут.

    Если хочешь добавлять и менять виланы хоста без ребута, используй Open vSwitch. Это рекомендуемый вариант в Proxmox VE 5.

     
     
  • 5.67, Аноним (-), 11:30, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Странно ifup и ifdown приводят в пример в книге Mastering Proxmox, правда в кни... большой текст свёрнут, показать
     
     
  • 6.69, EHLO (?), 12:30, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > Странно. ifup и ifdown приводят в пример в книге Mastering Proxmox, правда
    > в книге рассматривается версия 3 или 4. Тем не менее. Даже
    > не используя скрипты ifup/down и только пользоваться systemd - эффект тот
    > же самый.

    В зависимости от ситуации, эффект будет разный. В случае простого добавления новых интерфейсов, должно работать. Дебианский ifupdown это долгая история. Как ни странно с OVS он лучше всего работает. Штатный способ PVE изменить конфиг и ребутнуть "Pending changes (Please reboot to activate changes)".

    > Пробовал. Я создавал ovs bridge со статическим IP и маской, без указания
    > gw, т.к. на другом интерфейсе его уже задавал. После создал ovs
    > bond и указал ему интерфейс ovs bridge. Ребутнул сервер и после
    > загрузки сеть опять не загрузилась, хотя ifconfig показывает, что интерфейсы подняты,
    > адреса/маска/шлюз заданы. Но сервер не отвечает ни на пинг, ни трассировку
    > не проходит.

    Бонд не нужен, если у тебя на коммутаторе его нет.
    В случае OVS, у тебя должен быть OVS Bridge vmbrX, у которого 2 порта: физический с транком и внутренний  (OVS IntPort) с вилан тэгом.
    IP адрес нужно назначать не vmbrX, а внутреннему порту (OVS IntPort) на котором соответствующий гипервизору вилан.
    Это естественно при условии что на коммутаторе транк с тегированным трафиком.

     
     
  • 7.73, Аноним (-), 15:26, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Спасибо. Буду курить в эту сторону.
     
  • 2.60, EHLO (?), 10:24, 18/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    >Сеть нарезана VLANами, порт в транке.
    >Есть ли возможность без бондинга задать для vmbr VLAN?

    Есть варианты.Вот некоторые:

    Самый простой добавить в /etc/network/interfaces вилан обычным дебиановским способом на физический интерфейс --
    vlan-interfaces(5) и на него навесить IP адрес гипервизора. Недостаток в том, что виртуалкам не дать тот же самый вилан шататным способом.

    Второй
    создаешь вилан в конфиге без адреса
    iface ens18.100 inet manual
    Создаешь бридж (vmbr1 к примеру). В его порты добавляешь ens18.100. IP адрес навешиваешь на бридж. (https://pve.proxmox.com/wiki/Network_Configuration#_vlan_802_1q)

    Третий
    Установить OVS. После этого сё конфигурится в ГУЕ. https://pve.proxmox.com/wiki/Open_vSwitch
    Создаёшь OVS бридж, в него добавляешь физический интерфейс, на котором транк.
    Создаёшь OVS IntPort, в котором задаёшь тэг вилана для доступа к гипервизору.

     

  • 1.74, Anonimous (?), 05:10, 19/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    кто сказал OpenStack?!
     
  • 1.79, wetwet (?), 21:58, 19/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Тем, кого заинтересовал и заинтересует Proxmox - https://forum.pfsense.org/index.php?topic=136398.0
     
  • 1.80, Ilya Ryabinin (?), 20:34, 20/05/2018 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Пользуюсь проксмоксом, честно говоря от безысходности Нужна хоть какая-нибудь и... большой текст свёрнут, показать
     
     
  • 2.81, EHLO (?), 10:29, 21/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    1. ZFS не пользуюсь. Пока он не проходит мой личный QA. Не все грабли собраны. virtio не пользуюсь по многим причинам, не буду офтопить, удачи с ним.
    2.
    >А потому, что нет никакой возможности управлять iscsi-target в современном linux

    В современных ядрах LIO, который управляется targetcli. Много этим пользоваться не приходилось, предпочитаю избегать iSCSI в проде, но впечатление осталось неплохое, прозрачная понятная и удобная штука (если сравнивать со всякими альтернативами, СХД и т.д.)
    3. Дебианский ifupdown это реальный недостаток в том числе Proxmox. Сам плююсь на него каждый раз. Практика показала, что стабильнее всего со сложными конфигами сети в Debian-based справляется OVS. VLAN-aware штука годная, но сыроватая на мой вкус.

    ЗЫ
    >линакс

    с этим к логопеду

     
     
  • 3.84, Ilya Ryabinin (?), 12:03, 23/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    Наверное я не совсем понятно выразился про lio, управлять им не может proxmox, может только iet. В ручную это делать смысла нет, тогда уж проще libvirt использовать.

    Про zfs, лично я им пользуюсь уже более 5 лет в linux (надеюсь, логопед будет доволен), да косяки есть, но они не настолько критичны. Но, в целом, zfs обеспечивает большую безопасность данным, причем намного. Приведу небольшой пример. В zfs очень редко можно поймать зависание операций ввода вывода из-за циклических блокировок. В этом случае, вам придется перезагрузить машину. Потерь данных, у меня ни разу не было. С другой стороны, на аппаратной raid-10 массиве в сервере dell с серверными scsi -дисками, оказалось, примерно с такой-же частотой с одного из дисков читались неверные данные. В результате рухнуло несколько виртуальных машин. Было очень тяжело понять в чем дело, об ошибках не было никакой информации, выяснилось после миграции хоста на zfs - в контрольных суммах появились ошибки на сбойном диске. А косяки lvm до сих пор не все выявили, там они реально есть, и особенно заметны при быстром создании и удалении снимков. zfs буквально решила все мои проблемы.

    virtio не пользуюсь по многим причинам, не буду офтопить, удачи с ним. А все-же, можно парочку примеров? Я использую virtio-scsi через который trimm можно пропускать.

     
     
  • 4.85, EHLO (?), 18:40, 23/05/2018 [^] [^^] [^^^] [ответить]  
  • +/
    > virtio не пользуюсь по многим причинам, не буду офтопить, удачи с ним.
    > А все-же, можно парочку примеров? Я использую virtio-scsi через который trimm
    > можно пропускать.

    описался s/virtio/libvirt/

     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру