moury
сисадминское lxc Подземный стук какой-то.
Много лет стоит LXC с привилегированными контейнерами. Сейчас Debian 9.11, LXC версии 2.0.7.
Поставил Munin на хост-систему и во все контейнеры, и оказалось, что контейнеры через /proc видят дисковые устройства хост-системы.
Вот как так?
stanislavv
работа лытдыбр lxc В fstab контейнера прописано N каталогов, которые монтируются внутрь.
Если одного из каталогов на момент lxc-execute не существует, то lxc-execute выдаёт ошибку и подвисает, причём если прибить, устранить причину подвисания и попытаться запустить — будет то же самое.
Вобщем, хз что и как сиё дебажить...
Balancer
lxc mariadb Похоже, нужно возвращаться к идее индивидуальных серверов БД в LXC-контейнерах. С одной стороны, это заметный оверхед по памяти/кешам, из-за которых я и пришёл к идее использования общей БД на хосте для всех контейнеров, с другой стороны, начинается каша при попытке многосторонней репликации баз данных и лишний геморрой при переносе контейнера на другой сервер. Когда всё в локальной БД контейнера, то этот контейнер можно тупо запаковать и перебросить куда надо целиком.

Единственное, над чем надо ещё подумать, делать ли LXC-контейнер полностью автономным или держать два отдельных контейнера для БД и для сайта. Во втором случае получаются лишние сущности, но процесс переноса можно разделить на этапы.
OmskLUG
Linux KVM виртуализация lxc docker *контейнеры 2017-11-11 в 16.00 OMST (10.00 UTC) на omsklug.com (https://www.youtube.com/c/Omsklug/live) будет трансляция, посвящённая контейнерной системе виртуализации Docker. Казалось бы, что ещё можно рассказать, да показать? А вот и послушайте, да посмотрите. Всем синих китов!
Balancer
lxc производительность docker Забавно, но в Ubuntu сейчас, по сравнению с 14.04 скорость LXC упала, а скорость Docker выросла. Раньше LXC-контейнер отдавал статику и PHP-скрипты с такой же скоростью, как и хост, а Docker — раз в 5 медленнее. Сейчас, не знаю, что повлияло больше, ядро системы или соответствующие версии софта, но для простого `echo 2*2` на php7 скорость отдачи у меня:

— На хосте: 20-22 krps
— В LXC-контенере: 8-10 krps
— В Docker-контейнере: 9-15 krps

При чём у LXC более быстрый вариант php-fpm, с сокетом, а в Doker — с сетевым интерфейсом.
Graf
Linux ? Gentoo q lxc Поставил я тут lxc, зопилил генту в контейнер на генте, все заебись кроме одного.
При veth контейнера не добавляется в бридж, надобно добавлять руками. Есть чо?
Turbid
Linux iptables lxc Чтобы iptables завелся внутри lxc-контейнера делаем на хосте:
# mkdir /var/lib/lxc/<name>/rootfs/lib/modules
# echo "iptable_filter" >> /etc/modules
и в конфиг контейнера:
lxc.mount.entry = /lib/modules /var/lib/lxc/<name>/rootfs/lib/modules none ro,bind 0 0
Balancer
MySQL lxc mariadb docker контейнеры Пришёл к идее, что, если удастся нормально настроить под MariaDB произвольную мастер-мастер репликацию индивидуальных БД (т.е. разные БД — на разные сервера), то надо нафиг выносить MariaDB из контейнеров («в каждом своя») на хост. Достало оверхедить памятью :)
Balancer
Gentoo fail lxc Тля. Gentoo уже и в роли чисто хоста для контейнеров всё опаснее. Взяли и в LXC в init.d молча перенесли содержимое контейнеров в /var/lib/$container_name. Мало того, что полный идиотизм (нафига мне /var/lib засорять десятками контейнеров?), так ещё и без предупреждения — всё нафиг отвалилось после перезагрузки...

data.gpo.zugaina.org

LXC_PATH="/var/lib"

что характерно, если тупо поменять на LXC_PATH="/var/lib/lxc", то не работает, ругается, что не находит конфига. Если переложить в старый gentoo-заскок в виде /etc/lxc и прописать LXC_PATH="/etc/lxc", то тогда всё нормально.

Короче, в очередной раз поломали нафиг работающую систему.
moury
Linux Debian lxc В первые дни после релиза debian jessie развернул с нуля виртуалку в LXC. Раньше написать не получилось.
Тогда на wiki.debian.org было кратко написано, что systemd мешает нормальной работе, и нужно сразу менять его на sysvinit. Сейчас то же написано более резко и подробно.
Результат: при запуске виртуалки через lxc-start ОС виснет (или блокируется) в процессе загрузки. При запуске через libvirt виртуалка запускается нормально, но руту вход с консоли virsh запрещен.
Как победил: в шаблоне виртуалки предусмотрена установка openssh-server. Я по файловой системе хоста настроил в виртуалке сеть и разрешил вход руту. После этого запустил виртуалку через libvirt, вошел по ssh рутом, поставил
sysvinit. Дальше — обычная, безопасная первичная настройка, и все такое.
При настройке сети была методическая сложность: чтобы виртуалка стала доступна по сети, IP-адрес пришлось
прописать в настройках обоих систем виртуализации (и в config-файле LXC, и в XML-файле libvirt). Раньше для настройки сети адрес прописывался только в той системе виртуализации, с которой работаешь.
Balancer
weave lxc docker контейнеры Отлично! weave позволяет на лету связывать в одну сеть уже запущенные контейнеры Docker и LXC. Жаль только, что не позволяет автоматически сменить точку входа в сеть, если исходная отваливается. Можно, конечно, скриптом попробовать оптимизировать, типа, если один внешний хост перестаёт пинговаться, то переключаемся на резервный... Может, есть более прямая альтернатива?
Balancer
lxc docker контейнеры Эти контейнеры меня доведут :D Поднял в контейнере MariaDB, настроил репликацию с удалённого сервера, дня три она крутилась, а сегодня сервер с контейнером перезагрузил. Лезу в MySQL — нет ответа. Хм. Начинаю ковыряться в Docker образах. В docker ps пусто. В docker ps -a вижу два container_id с образом mariadb. Запускаю один — фигушки. Другой — стартует. Потом становится понятно, что первый стартовал просто как mysql-клиент ко второму. Ладно, лезу в контейнер — репликации нет, головной сервер не настроен o_O. Лезу в /var/lib/mysql — там файлы от 01 декабря O_o. Потом смотрю, ещё и объём базы вместо 15Гб что-то около 300Мб...

В общем, ковырялся минут 40 в общей сложности, даже find'ом искал по всему диску БД по имени... Пока не догадался в lxc-ls глянуть и увидеть, что я базу-то в LXC-контейнере поднимал :D Как раз, специально, ибо сложная MySQL-конфигурация тянет не на приложение, а комплекс приложений. Придётся, походу, всё строго документировать, а то запутаться в десятках разнотипных контейнеров на полудюжине серверов как делать нефиг...
akshimassar
Ubuntu lxc Еще из прелестей убунту: в fstab-файле lxc нельзя использовать опцию auto — она всё ломает. При этом почему-то производятся попытки примонтировать совершенно не туда, куда надо. В документации написано "fstab format".
hizel
Gentoo lxc Чота так и не осилил нормальную работу gentoo в качестве гостевой в lxc 1.х ubuntu/gentoo. Приходится пользовать под гостевушечки debian/ubuntu. Скрипя и страдая сердцем конечно же.
qnikst
nix lxc systemd гинь-гинь я понимаю, что у меня кривые руки в nix может кривой systemd, а для lxc нужно передавать systemd какую-нибудь смешную
опцию, которую неясно откуда вычитывать. Но как дебажить систему которая пишет:
[FAILED] Failed to start Login Service.
See 'systemctl status systemd-logind.service' for details.
а при попытке логина в систему:
nixos login: root
Password:

Cannot make/remove an entry for the specified session

на хост оси systemd нет
Balancer
виртуализация lxc Начал разгребать почту на admin@ — увидел, что недавно наступил год, как я активно переехал на LXC (почта с первых 5-6 контейнеров от января 2013-го). Сейчас LXC-контейнеров десятка полтора, некоторые — под довольно приличной нагрузкой. За весь год не было ни одного происшествия, связанного с LXC. Думаю, вполне показатель :)

В гостевых системах используют почти исключительно Ubuntu (версии разные, LTS. 13.10, даже 12.10). Хостовые системы на старых/своих машинах Gentoo, на новых (DigitalOcean и Hetzner) — Ubuntu LTS.

wasd
Linux ? lxc Посоны, есть один линукс на 2.6.34 (openSuSE 11.3)
Я хочу, ничего не обновляя и не перезагружаясь, получить что-нибудь для запуска контейнеров/виртуалок, но не могу выбрать.
1. OpenVZ: кажется, для него нужно кастомное ядро
2. LXC: на момент 2.6.34 не был стабилен (или уже был?)
3. KVM: рассматривается, но использовать не особо хочу, поскольку не хочу тяжестей типа KVM, когда можно обойтись меньшим.

Ваши варианты/советы?
iportnov
Linux Ubuntu Oracle lxc apparmor Чисто чтобы не забыть.
Задача: поставить в убунте оракл в lxc-контейнер.
Решение: сделать контейнер просто: sudo lxc-create -n oracle -t oracle.
Дальше качаем сам оракл и ставим внутри контейнера. При rpm -ivh oracle*.rpm получается, похоже, ubuntu-cпецифичная трабла:
error: permission denied on key 'kernel.*'
Т.е. оно пытается установить какие-то sysctl-параметры, а ему не разрешают. Проблема, оказывается, в apparmor. Решение:
1. sudo ln -s /etc/apparmor.d/usr.bin.lxc-start /etc/apparmor.d/disabled/
2. В конфиге контейнера дописать строчку lxc.aa_profile=unconfined.
qnikst
? lxc а можно каким-нибудь образом запретить установку глобальных (действующих на весь хост) sysctl параметров? Отобрать root не предлагать.
qnikst
? lxc гинь-гинь кто пользуется lxc есть следующий вопрос, у вас после выполнения shutdown -h now убивается ли процесс lxc-start на хосте, если да то:
1). какой дистрибутив на хосте?
2). какой дистрибутив в контейнере?
3). используется ли inotify на utmp (задается где-то в конфиге)*
4). есть ли у гостя cap_boot?
5). что является PID-1? shutdown из sysvinit или симлинк на что-то другое?
6). какая версия lxc?
sai
? lxc Котоны, поясните за LXC. Хочу в CI использовать, чтобы vagrant поднимал не virtualbox, а LXC-контейнер. А то шеф-скрипты слишком долго на виртуалке отрабатывают. Какие подводные камни?
qnikst
Linux programming Kernel lxc cgroups Вопрос, а процесс, который ядро запускает при выходе последнего процесса из иерархии (release_agent) чем-то отличается от обычного? Поскольку я заметил, что я не могу внутри этого процесса записать новый процесс в ту же цгруппу.

Судя по исходникам, лок на цгруппах не стоит:
lxr.free-electrons.com

Судя по выводу ps процесс вполне обычный, но модификация цгрппы через echo $$ > /sys/fs/cgroup/foo/bar/task приводит к invalid argument. замена $$ на 0, тоже не помогает.

Куда можно копать?

P.S. (последний тег, чтобы больше народу скастовать).
P.P.S. я знаю как обойти этот вопрос запустив демона в userspace, но мне не нравится такой вариант.
adept-
networking lxc Кто-нибудь может подсказать, как посмотреть, какой из veth* интерфейсов в системе принадлежит какому контейнеру? lxc-list и lxc-ls не кажут
Turbid
Linux lxc я правильно понял, что хост-машина неверно будет показывать user в списке процессов для lxc-процессов? а то у меня mysqld в одном из хостов работет от usbmux 0_o
Turbid
Linux man lxc чё-то ржу. первые строчки мана по lxc:
You are in a hurry, and you don't want to read this man page. Ok, without warranty,
here are the commands to launch a shell inside a container with a predefined config‐
uration template, it may work. /usr/bin/lxc-execute -n foo -f
/usr/share/doc/lxc/examples/lxc-macvlan.conf /bin/bash
все для людей
Turbid
Linux OpenVZ chroot lxc есть домашний сервачек, хочу на нем развернуть opengts, который чуть менее чем полностью на java. нет желания гадить в основную систему, тем более сервис будет доступен извне. что из тегов сейчас в моде для такой задачи?
p.s. CPU — 330-ый Atom, RAM 2Gb