to post messages and comments.

*контейнеры 2017-11-11 в 16.00 OMST (10.00 UTC) на omsklug.com (https://www.youtube.com/c/Omsklug/live) будет трансляция, посвящённая контейнерной системе виртуализации Docker. Казалось бы, что ещё можно рассказать, да показать? А вот и послушайте, да посмотрите. Всем синих китов!

Вот падла!

C:\Users\ILYA
λ systeminfo
...

Требования Hyper-V: Расширения режима мониторинга виртуальной машины: Да
Виртуализация включена во встроенном ПО: Да
Преобразование адресов второго уровня: Нет
Доступно предотвращение выполнения данных: Да


И чё теперь — сокет пилить и покупать Зион (Xeon) LGA771?!

Не могли они там — в 2008 г. сделать комп понавороченнее?!
__

Преобразование адресов второго уровня (например, Intel EPT, AMD RVI)

Для продуктов с высоким потреблением ресурсов, таких как PostgreSQL, крайне важно, чтобы процессор поддерживал и преобразование адресов второго уровня
Second Level Address Translation (SLAT).
Технология SLAT известна под разными названиями,
в зависимости от производителя процессора.
В Intel ее называют Extended Page Tables,
в AMD — Nested Page Tables или Rapid Virtualization Indexing.

Page Sharing – это одна из технологий динамического выделения памяти в гипервизорах,
позволяющая выделять виртуальным машинам больше памяти,
чем имеется физически – то есть то, что по-английски
именуется «memory overcommitment».

m.habrahabr.ru

— тут Щорс потирает ручонки в предвкушении повышения продаж виртулочек!

Очень нужен совет. Есть машина с XEN сервером. На нём 5-6 машин крутятся. Задача перенести машины и сохранить их до лучших времён.
Я хотел найти их образы, остановить и скопировать образы и метаданные, НО я вижу кучу /dev/md но в какой они могут быть файловой системе? mount не распознал их.
Может имеет смысл поставить на резервную машину ещё одни XEN и мигрировать туда все остальные машины?
не посоветуете какую прогу ставить для всех манипуляций? openxenmanager все машины видит, но как-то мне кажется не реагирует на то, что я ему говорю что-то сделать.

Нужна помощь. очень
Давно не пользовался виртуальной вендой с ключами eToken и ещё какой-то. Сегодня понадобилось и... виртуальная машина не видит их. в другие порты вставлял, сервер их видит, но виртуалка нет :(
Код: [Выделить]

Bus 002 Device 003: ID 0a89:0020
Bus 001 Device 006: ID 0529:0620 Aladdin Knowledge Systems Token JC

пробовал пробрасывать другие устройства Bus 002 Device 003: ID 0a89:0020 это вроде пробросилось. Венда среагировала... что делать, ума не приложу. не было печали :(
На локальной венде ключ определяется. Но мне надо на этой... виртуальной
Прошу подтолкните, что посмотреть можно?!

Ubuntu 16.04

Кто говорит, что VirtualBox лучше чем VMware Workstation, тот явно врёт. На VirtualBox например тестовая Windows 10 никак не хочет устанавливаться. Постоянно машина повисает на запуске с образа диска винды 10, а в логах какие то ошибки странные. Которых там быть не должно. Вот в цивилизованной VMware Workstation такого дерьма нет. Всё как по маслу устанавливается. Никаких ошибок, никакого красноглазия с изучением лог файлов. Цивилизация, ёпт. Запустился с диска, установил винду. Всё нормально. Про скорость, графику вроде DirectX лучше вообще не упоминать в VirtualBox-e. В топку его!

От жеж, а memory balooning полезная штука, оказывается. Ушёл тут у меня в себя винсервер свежеразвёрнутый. Кувалдой по башке не хотелось его — там как раз первая порция обновлений в количестве дохераштук должна была пройти, и немалая вероятность, что он бы такого издевательства не перенес. Подумал, посмотрел на потребляемые им ресурсы — а дай-ка я ему памяти подкину. Подкинул 4 гига — сервак жадно в пару движений заглотил 2 гига и стал реагировать на внешние раздражители. Первый раз встречаю такой непосредственный полезный эффект от динамической памяти. :)

Господа, у меня тут сервер, и на него надо поставить openstack. Вот выбираю, на чем его делать в итоге: QEMU, Xen или VMWare. Будут, в том числе, и виндовые инстансы крутиться. С QEMU раньше работал, но чисто как с эмуляцией железа. На сколько паравиртуализация быстрее, чем HVM?

Начал разгребать почту на [email protected] — увидел, что недавно наступил год, как я активно переехал на LXC (почта с первых 5-6 контейнеров от января 2013-го). Сейчас LXC-контейнеров десятка полтора, некоторые — под довольно приличной нагрузкой. За весь год не было ни одного происшествия, связанного с LXC. Думаю, вполне показатель :)

В гостевых системах используют почти исключительно Ubuntu (версии разные, LTS. 13.10, даже 12.10). Хостовые системы на старых/своих машинах Gentoo, на новых (DigitalOcean и Hetzner) — Ubuntu LTS.

В свежей windows 8.1 enterprise evaluation установил "встроенный" виртуализатор Hyper-V — потыкать, посмотреть. Установилось, запустилось, ubuntu 13.10 встала и даже шевелится. Особых минусов в сравнении с тем же virtualbox не заметил — всё наглядно и понятно. Осталось понять, входит эта хрень в состав win8.1, которая не pro.

Есть венда 7. Нужно иметь под рукой линупс, всегда. Дистрибутив — бубунта сервер. Так как дома второго пека нет, нужно поставить VM. Вопрос в том, какое средство виртуализации использовать. Конкретнее — какое меньше жрёт ресурсов.
Жуйкочане, посоветуете? Скажете что-то против/за VBox, VMWare для моей задачи? Может что ещё есть?

Чтобы запустить ESX внутри VMware Workstation 6.5, нужно в файл конфигурации виртуальной машины добавить 2 строчки: monitor_control.vt32 = «TRUE» и monitor_control.restrict_backdoor = «TRUE». Внутри VMware ESX, который установлен внутри VMware Workstation можно запускать только 32-х битные системы.

Посоветуйте плиз — есть проект в IAR под WinXP, запущенном под VirtualBox, сам проект под git, надо при изменениях в гите на хосте сдернуть скрипт для генерации определенного хедера и запустить команду сборки внутри виртуальной винды — вот это не понимаю как сделать, все остальное сделал, есть ли какие идеи о том, как дернуть команду в виртуалке по событию извне оной?

жуйк, помоги. Opteron 280 (italy) поддерживает ли аппаратную виртуализацию? если нет что посоветуете? требуется виртуалить веб сервера. ось естессно убунту (рассмотрю смену платформы если критично)

Вышел 4-й трететэг. Теперь проприетарные вкусности, типа проброса usb и rdp-сервера, доступны в виде отдельного (sic!) пакета.
Очевидно в связи с этим в генте оно теперь именуется просто virtualbox без -ose и -bin
Я хз, чо у второтэгов там с ООо получится, но в отношении VBox'a правильной дорогой идут, имхо

Пришло на работе более-менее нормальное железо и решил взгромоздить на него чего-нибудь виртуализирующее. Попробовал всякое и XEN, и Vmware ESXi, и Vmware Server 2. Hyper-V не стал, больно громоздкое. Остановился же на Proxmox VE. Ибо остальное слишком громоздкое, либо глючное, либо слишком требовательное к составу железа. Пока в Proxmox устраивает почти все. Кроме доступа по VNC к машине. Какой-то он вельми странный. Только средствами встроенного в веб-интерфейс жабного клиента VNC. Но, в принципе, это не критичная проблема.
В процессе установки-настройки порешал даже проблему того, что вообще на машине надо работать локально. Не без бубна, но все же. Кому интересны подробности — милости прошу в комменты.

ведущий всё никак не может отойти от основ виртуализации (как я его понимаю!), но хотелось бы чего-нибудь покруче. кроме того, медленное чтение презентации не способствует удержанию внимания аудитории

Сервер с материнкой Supermicro X8SIL-F (Intel 3420).
На борту встроенная IPMI плата с KVM-over-LAN функционалом.
Прописал статический адрес, открыл в браузере, ввел логин\пароль(ADMIN\ADMIN).
Пробую открыть консоль удаленного управления — не открывается. А вот консоль Serial-over-LAN открывается. что за нафик думаю...
Начал искать концы — ничего не нашел. Танцы с браузерами, с JAVA не помогли.
В итоге нашел свежую прошивку версии 2.01 (стояла 1.29) и прошил ее.
И что странно, мать свежая, BIOS вообще мая месяца 2010 — а уже проша есть с таким порядковым номером.
Прошилась элементарно, вошел и сразу все заработало.
Вот, думаю, егпипетская сила, блин. :)
ЗЫ. Только какая же тормозная штука это управление... И Глючноватая...

Прошу совета, как лучше разбивать дисковые массивы под ESXi на новом сервере?
Стоит 4*15к SAS 146Gb и 2*7,2k SATA 1Tb на восьмипортовом LSI 9260-8i.
НА сколько лучше делить LUN(виртуальные дисковые массивы)?
К примеру:
Два террабайтника. Поделено на два Луна в RAID1. Первый на 25Гб — под ESXi. Второй на 900Гб под файлохранилище(образы, бэкапы и т.п.).
Четыре 15к SAS винта. Пока одним ЛУНОМ в RAID6. НО хочу поменять на привычный и более простой RAID10.
Сколько Луном делать и какими типами массивов — под вопросом.
Свои потребности я описывал здесь: juick.com

Собираюсь под платформу виртуализации WmWare ESXi заказать такую однопроцессорную систему:
X8SIL-F (Intel 3420) + Intel Xeon X3440
2GB, ECC, DDR3-1333 x 4 шт
LSI MegaRAID SAS 9260-8i, 512MB, 8int ports + Батарея LSI MegaRAID BBU
HDD SAS 146GB 15K х 4 шт
HDD S-ATA 1TB 7200RPM x 2 шт
Корпус Supermicro CSE-745TQ-800B 8xSATA/SAS HS Bays, 3x5.25, 800W
Нагрузка:
1. PDC, DNS
2. 1C 7.7 SQL 10Gb Бухгалтерия с 5 пользвателями
3. Backup server
4. Почтовый сервер Exchange с 40 пользаками.
5. Ну и парочка хостовый систем под всякие мелкие функции и на вырост.
Подскажите, на что обратить внимание при заказе? Может я что упустил?
Или что-то еще интересное предложите?

Провел небольшое тестирование двух технологий виртуализации — KVM и Xen в сравнении с реальным железом. Подопытные кролики:

* Реальное железо: AMD Athlon x2 3800+ 2 Gb RAM одиночный диск с LVM. Ядро 2.6.34.1
* KVM: гипервизор — та же система, что и на реальном железе, домен — самосборное безмодульное ядро 2.6.34.1 со включенной оптимизацией для использования в качестве KVM-домена. 1,1 Гб ОЗУ, 2 ядра
* Xen: гипервизор 4.0.1-rc3, dom0 — ядро 2.6.32.16 (самосбор из git'a проекта), domU — самосборное безмодульное ванильное 2.6.34.1, паравиртуальные драйверы сети и диска. 1,1 Гб ОЗУ, 2 ядра

Для дерева исходного кода ядра выделен отдельный логический раздел в LVM'e, который использовался во всех трех случаях. Производилась сборка ванильного ядра 2.6.34.1 стандартными Debian'овскими средствами (time make-kpkg kernel_image --initrd), для второго теста делалась зачистка командой make clean mrproper, после чего заново копировался конфиг. Сборка делалась в 3 потока (так что 1 Гб памяти вполне хватит и для компиляции, и для кэширования). В случае с виртуальными машинами использовался один и тот же корневой раздел.

*** KVM test 1 ***
real 20m3.221s
user 30m31.751s
sys 7m12.433s

*** KVM test 2 ***
real 19m44.205s
user 30m6.624s
sys 7m7.920s

*** Xen test 1 ***
real 14m45.813s
user 22m37.477s
sys 5m13.125s

*** Xen test 2 ***
В пределах погрешности

*** Реальное железо ***
real 12m53.008s
user 21m24.158s
sys 2m26.534s

*** Реальное железо 2 ***
real 12m37.855s
user 21m24.213s
sys 2m23.840s