Чтобы добавлять сообщения и комментарии, .

@seeker:
seeker

господа а странный вопрос. вот создали мы предположим lvm у которого часть pv локальный диск, а часть pv — iSCSI а потом iSCSI таргет сдох. (устройства в системе остались)
как по вашему будет себя вести команды pvdisplay и pvscan?

@L29Ah:
L29Ah

Думал о том чтобы перенести систему на другой хард и вспомнил, что кто-то тут рассказывал, что использует lvm только для того, чтобы делать снепшоты у себя на лаптопе. Стало интересно, зачем могут быть полезны подобные снепшоты, когда у тебя уже есть система автоматического инкрементального бекапа в удалённое хранилище?

@Hawat:
Hawat

lvm это конечно забавно, но если мне надо диски в гипервизоре заменить, то каким путелм лучше пойти? Пока приходит на ум только забекапить диски vm-ок и восстановить на новой инсталляции.

@L29Ah:
L29Ah

l29ah-home ~ ∞ lvextend -L+4.94g vg0/lvol0 -r
Rounding size to boundary between physical extents: 4.94 GiB
Extending 3 mirror images.
Insufficient suitable allocatable extents for logical volume lvol0: 3 more required
l29ah-home ~ ∞ pvs
PV VG Fmt Attr PSize PFree
/dev/sdb2 vg0 lvm2 a-- 297.99g 13.98g
/dev/sdc2 vg0 lvm2 a-- 148.95g 4.94g
/dev/sdd2 vg0 lvm2 a-- 372.51g 228.50g
l29ah-home ~ ∞ lvextend vg0/lvol0 /dev/sdc2 -r
Extending 3 mirror images.
Insufficient suitable allocatable extents for logical volume lvol0: 1263 more required
l29ah-home ~ ∞ lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lvol0 vg0 rwi-aor--- 140.00g 100.00
swap0 vg0 rwc-aor--- 4.00g 100.00
unraid vg0 -wi-ao---- 140.00g
l29ah-home ~ ∞ pvs
PV VG Fmt Attr PSize PFree
/dev/sdb2 vg0 lvm2 a-- 297.99g 13.98g
/dev/sdc2 vg0 lvm2 a-- 148.95g 4.94g
/dev/sdd2 vg0 lvm2 a-- 372.51g 228.50g
l29ah-home ~ ∞ lvextend -l '+100%PVS' vg0/lvol0 -r
Extending 3 mirror images.
Insufficient free space: 209775 extents needed, but only 63339 available
l29ah-home ~ ∞ lvextend -l 63339 vg0/lvol0 -r
Extending 3 mirror images.
Insufficient free space: 82497 extents needed, but only 63339 available
l29ah-home ~ ∞ lvextend -l +63339 vg0/lvol0 -r
Extending 3 mirror images.
Insufficient free space: 190017 extents needed, but only 63339 available
l29ah-home ~ ∞ lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
lvol0 vg0 rwi-aor--- 140.00g 100.00
swap0 vg0 rwc-aor--- 4.00g 100.00
unraid vg0 -wi-ao---- 140.00g
l29ah-home ~ ∞ pvs
PV VG Fmt Attr PSize PFree
/dev/sdb2 vg0 lvm2 a-- 297.99g 13.98g
/dev/sdc2 vg0 lvm2 a-- 148.95g 4.94g
/dev/sdd2 vg0 lvm2 a-- 372.51g 228.50g

У меня RAID1 на все три PV, да. Че блять?

@k1lg0reTr0ut:
k1lg0reTr0ut

блять, была уже такая хуета, делаю копию диска с помощью например клонзилы, и после этого линукс не грузится, потому что-то там LVM не может распознать.
жопа, а если в грубе выбрать rescue — то грузится.

@easyjohn:
easyjohn

Завершил перенос всего и вся. Думал сделаю дня за два, получилось чуть больше двух недель.
Как же хорошо, что я когда-то давно разделил стор и апликухи. Даже самба, раздающая этот стор в отдельной виртуалке, что говорить о всяких торрентах.
Сейчас бы заколебался все это обновлять. А так переподсунул по старым путям nfs и все взлетело.

@easyjohn:
easyjohn

Теперь вопрос стоял, какую выбрать компрессию для домашней файлопомойки.
Сравнил экстремальные варианты: недавно появившийся в zfs lz4 и gzip-9.
Lz4 в интернете поют дифирамбы, очень быстрый, хороший, жмет только то что может жать, скорость чтения и записи заметно ускоряется и т.п.
В нашей работе с виртуалками у меня очень хорошие показатели, примерно 1:2 сжатие lz4 на рабочих сторах, и примерно 1:6 сжатие gzip-5 на баккапе.

Другое дело с файлопомойкой, в большинстве своем забитой несжимаемым контентом — музыка, фото, видео, кое-какой софт.
Записав первые 2Tb инфы я получил 2% выигрыша на lz4. Честно говоря, я ожидал хотя бы 10%. Но, впрочем, тоже плюс.
А т.к. большинство инфы записывается редко, а читается то же не сказать что бы часто — решил попробовать максимум — gzip-9.
Скопировал еще раз и получил.. те же 2%! (я проверял. если писать легко-компрессируемые файлы, то все работает, разница lz4/gzip видна)
То есть на моих данных смысла в gzip нет вообще никакого. Плюс такая картина по скорости чтения/записи:
на lvm — 222/128 mb/s
на zfs с lz4 — 238/110 mb/s,
на zfs с gzip-9 — 186/10 mb/s
Ну, собственно, в данном случае gzip никак не подходит, максимальная компрессия не дает выигрыша (или дает менее 1%), но при этом скорость записи падает до 10 mb/s, что за пределами комфорта.

@easyjohn:
easyjohn

Получилось на zfs провести фокус с созданием raid5 массива только на 2 дисках из трех, как я привык это делать на mdraid.
Делается фейковый фаил, который занимает пару килобайт, но репортит полный размер:
# dd if=/dev/zero of=/tmp/disk.img bs=1 seek=4T count=1
создаем пул:
# zpool create poolA raidz1 /dev/sda /dev/sdb /tmp/disk.img
и фейк сразу выводится в оффлайн, что бы туда ничего не начало писаться:
# zpool offline poolA /tmp/disk.img
Все, имеем пул в дегрейде из 2 дисков, можно залить данные, высвободить еще один диск и добавить к пулу, после ресильвера будет ок.

@easyjohn:
easyjohn

А вот хрен. Снял я копию скажем с sdb (диск из mdraid) с помощью ddrescue, потом залил обратно на этот же винт (успешно!), ставлю на ребилд — опять ошибка:
kernel: blk_update_request: critical medium error, dev sdb, sector 399482128
kernel: raid5_end_read_request: 4 callbacks suppressed
kernel: md/raid:md127: read error not correctable (sector 399449432 on sdb1).
kernel: sd 4:0:11:0: [sdb] UNKNOWN(0x2003) Result: hostbyte=0x00 driverbyte=0x08
kernel: sd 4:0:11:0: [sdb] Sense Key : 0x3 [current]
kernel: sd 4:0:11:0: [sdb] ASC=0x11 ASCQ=0x0
kernel: sd 4:0:11:0: [sdb] CDB: opcode=0x28 28 00 17 cf 9d 10 00 00 50 00
kernel: blk_update_request: critical medium error, dev sdb, sector 399482128
kernel: md/raid:md127: Disk failure on sdb1, disabling device.\x0amd/raid:md127: Operation continuing on 2 devices.
kernel: md: md127: recovery interrupted.

Теперь придется идти долгим путем. Запускаться с копии а битые винты попробовать вернуть в юлмарт.

@easyjohn:
easyjohn

Сделал копию дисков с ошибками из рейда mdadm на новые диски через ddrescue. Скорость 2тб за 12 часов, но за то параллельно можно что-то делать.
Потом решил, что зря пропадать и залил эти данные поверх обратно на старые винты. При перезаписи сбойные сетора должны бы отремапиться.
Делал через стандартный "dd if=... of=... bs=1M". Скорость 2тб за 6 часов, но за то только один процесс в системе живет, все остальное в фризе. Он их sync'ом что-ли гонит по дефолту?

@alv:
alv

LVM поверх RAID alv.me

@kamenev:
kamenev

ag — имя группы томов
lvcreate -L 1G -T ag/thinpool
lvcreate -V 50G -T ag/thinpool -n mydocs

Смотрим сколько места занимает пустое форматирование разных систем:
reiserfs — 5,57% от 1GB
ext3 — 93,62 от 1GB
ext4 — 0,26% от 1GB
nilfs2 — 0,00% от 1GB
reiser4 — 0,05% от 1GB
btrfs — 0,01% от 1GB

@Balancer:
Balancer

Seagate на 1.5Тб. ST31500341AS. Сдох, естественно :) Хорошо ещё, что стоял в бэкап-сервере, где, соответственно, лежали бэкапы. Надо форсировать замену.

Сдох на ровном месте, один раз машину выключил, через несколько дней включил — тыква. При чём система вообще не стартует, когда этот винт воткнут, на BIOS'е виснет.

И на втором таком же постараться ничего ценного не хранить... А то сейчас поглядел — 553 релокейшна показывает. Ещё несколько месяцев назад 0 было. Power Cycle Count = 132, аптайм 31607 часов (3.6 года).

Стресс-тест LVM не получился. 4 раздела были stripe (поэтому сразу навернулись), пятый — linear, но начало на сдохшем диске, так что системная область ext4 накрылась. Мирроров не было ни одного.

@Melhior:
Melhior

Меня "радует" как в интернетиках ругают lvm снапшоты тем что они хуже zfs (zfs не тормозит, lvm тормозит). С учетом того что в этих системах подход к созданию и работе снепшотов разный.

Хотя я хотел бы в некоторых случаях делать снапшот в lvm по принципу zfs(ну и как в VmFS заодно), сейчас как раз такая задача появилась (для реализации microsoft vss под самбу)

@alv:
alv

Linux Mint и его Cinnamon. Очерки применителя. Часть 10: alv.me
Следующие три очерка посвящаются рассмотрению довольно специальных вопросов — применению в Mint технологии LVM, программного RAID и системы размещения данных ZFS. Наибольшее внимание уделено последней, как наименее освещённой в русскоязычных источниках.

В соответствие с утверждённым графиком alv.me , остаётся последняя часть — про систему Ubuntu Customization Kit, предназначенную для сборки собственных вариантов дистрибутива Mint.

@Dant:
Dant

Фикс ошипки груба Diskfilter writes are not supported при загрузке Ubuntu 14.04 LTS, когда /boot находится на LVM/mdraid: askubuntu.com

@Zert:
Zert

Запосчу, чтобы не потерять.
Закончилось место в виртуалке с линуксом, надо было добавить место. Делается это так:
Из хостовой операционки (макось в моём случае): VBoxManage modifyhd ~/VirtualBox\ VMs/Ubuntu/Ubuntu.vdi --resize SIZE
Затем всё на гостевой виртуалке:

Сначала увеличиваем размер extended раздела с помощью parted (-1s — значит до последнего сектора):
resizepart 2 -1s

После чего в нём же увеличиваем раздел, находящийся в extended:
resizepart 6 -1s

Выходим из parted. Через pvresize увеличиваем размер физического раздела, который уже увеличивали, чтобы увеличение увидел LVM:
pvresize /dev/sda6

Должно появиться что-то типа:

Physical volume "/dev/sda6" changed
1 physical volume(s) resized / 0 physical volume(s) not resized

Ну и увеличиваем соответствующий lvm-девайс на нужное количество гигабайт:
lvextend -L +2G /dev/mapper/ubuntu—vg-root

Теперь ресайзим ФС и всё готово:
resize2fs /dev/mapper/ubuntu—vg-root

@Evilways:
Evilways

Прикручиваем новый винч в lvm на примере Proxmox. Записки на память...

Есть два полутерабайтника, на одном(sda) прокс, на другом(sdb) остатки венды. Расширять будем /dev/mapper/pve-data, который монтируется к /var/lib/vz. Потому что чего-то другое расширять нахрен не надо.

Для начала кромсаем sdb посредством parted:
:~# parted /dev/sdb
(parted) mklabel gpt
(parted) mkpart primary ext3 1 -1
(parted) set 1 lvm on
(parted) print
Model: ATA WDC WD5000AAKX-0 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number Start End Size File system Name Flags
1 1049kB 500GB 500GB ntfs primary lvm

Номер Начало Конец Размер Файловая система Имя Флаги
1 1049kB 2000GB 2000GB primary lvm

(parted) quit

Запиливаем sdb1 и добавляем его в группу pve:
:~# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created
:~# vgextend pve /dev/sdb1

Расширяем логический диск '/dev/pve/data' на все деньги:
:~# lvextend -l +100%FREE /dev/mapper/pve-data
Extending logical volume data to 808.02 GiB
Logical volume data successfully resized

Меняем размер раздела, на всякий случай отмонтировав:
:~# umount /dev/mapper/pve-data
:~# resize2fs /dev/mapper/pve-data
resize2fs 1.42.5 (29-Jul-2012)
Resizing the filesystem on /dev/mapper/pve-data to 211816448 (4k) blocks.
The filesystem on /dev/mapper/pve-data is now 211816448 blocks long.

Процесс выше займёт некоторое время, а так же не обращаем внимание на название команды. Оно любое ext умеет ресайзить. Можно было и не отмонтировать(см. второй источник), но сыкотно как-то.

Затем монтируем на место и проверяем:
:~# mount /dev/mapper/pve-data
:~# df -h /dev/mapper/pve-data
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/pve-data 796G 197M 796G 1% /var/lib/vz

Источники:
o-nix.com
raid.wiki.kernel.org

@k1lg0reTr0ut:
k1lg0reTr0ut

хочу запутить 2 винда на 2 терра в качестве рейда 0 на lvm.
негативные стороны вроде знаю: не поддается расширению, но это не особо важно. ну и рейд 0 не рейд 1.
кто-нибудь пользовался такой конфигурацией? прирост IO есть?

@k1lg0reTr0ut:
k1lg0reTr0ut

если я расширяю lv, а там внутри ext4, то эта файловая система автоматом не увеличивает свое место, мне нужно грузиться с чего-то другого и расширять его?

@overmind88:
overmind88

Клонирование контейнеров lxc 1.0 в ubuntu 12.04 linux.org.ru
HALP!

@Melhior:
Melhior

Кто-нибудь уже пробовал cache-pool lvm вместо flashcache?

@Self-Perfection:
Self-Perfection

Я неудачник. Попробовал удалённо дома переместить (pvmove) LV с rootfs с одного PV на другой, и всё нафиг повисло. В интернетах нарылся багрепорт аналогичной ситуации, но давно закрытый как WONTFIX bugzilla.redhat.com

Не доверяй никому, всё глючит.

@webus:
webus

Если с 13.04 обновился до 13.10 нормально, то с 13.10 на 14.04 все упало. Спасибо бэкапам. А как делать бэкапы на LVM, что бы при косячном обновлении восстановиться ?

@EvilKitten:
EvilKitten

восстановление партишн тейбл из бэкапа конфига lvm2: bitbull.ch

@Graf:
Graf

Народ, кто-нить в курсе как скопировать логический том в другую группу томов?

@Annoynimous:
Annoynimous

Сделал RAID1 на LVM, воткнув в роутер второй винт по USB. /boot выделил отдельными разделами там и там. Как их (и загрузочную запись) идеологически верно синхронизировать? (да, мне лень собрать мозайку из dd)

@partizan:
partizan

котаны, а кто юзает мой lvm-том? не могу его удалить, виртуалку выключил, lsof говорит никто, но lvremove говорит `Logical volume kvm-storage/veid-5090 in use.`

@Self-Perfection:
Self-Perfection

Решил почистить место в volume group, поудаляв старые снапшоты. Неправильно прочитал маны и вместо банального lvremove сделал

$ sudo lvconvert --merge VolGroup00/var_snap0
  Can't merge over open origin volume
  Merging of snapshot var_snap0 will start next activation.

Тут я понял, что сделал что-то не то. Но как теперь отменить merge?!
$ sudo lvremove VolGroup00/var_snap0
  Can't remove merging snapshot logical volume "var_snap0"

$ sudo lvchange -an VolGroup00/var_snap0
Change of snapshot var_snap0 will also change its origin LogVol01. Proceed? [y/n]: n
  Logical volume var_snap0 not changed.

Блин!

@mrtron:
mrtron

* linux а я так понял нельзя просто так взять добавить в систему диск и перенести туда часть разделов? а то у меня счас файла-помойка и корень живут на одном большом винте, а я хочу вынести корень на ssd.

@Zert:
Zert

А смонтированную lvm-партицию можно увеличить? Или только создавать новую и добавлять в группу?

@Balancer:
Balancer

Хм. Нашёл у себя в ящике забытый терабайтник Хитачи. Выводил из массива домашнего сервера, когда были подозрения на его глюки и вместо него 3Тб поставил, хотел воткнуть потом на домашний десктоп для бэкапов — и забыл :) Поставил на десктоп, отрезал 100Гб под виндовые игрушки всякие, чтобы SSD не мучить, остальное — в массив. 870Гб свободно. Буду делать бэкапы :)

@wasd:
wasd

Подключил к компьютеру с гентой хард с федорой, а там LVM

kwasdbook ~ # lvm pvscan
No matching physical volumes found
kwasdbook ~ # lvm vgscan
Reading all physical volumes. This may take a while...
No volume groups found
kwasdbook ~ # ls /dev/mapper/
control
kwasdbook ~ #
sdb2 Primary LVM2_member 639609.34

Никогда ранее не работал с LVM, хочу смонтировать раздел с этого диска. Штоделоц? В /dev/disk/by-name тоже ничего нет.

@MrFree:
MrFree

Дано, давно установленная система, при инсталяции был выбран lvm (не помню почему), там два тома. Необходимо скопировать тома на другой винчестер, и никак не пойму как. Тупо подмонтировать перебросить очень не хочется...

@nixon89:
nixon89

Пилять, сидел, ни кому не мешал, вникал в мануал по lvm. А тут как вдруг взяли и отвлекли. :(

@MikalaiBeliashou:
MikalaiBeliashou

Раньше я думал, что LVM это идиотский способ собирать RAID0 на несколько дисков. А вот сейчас задумался: "Я создал логический раздел, отформатировал его, примонтировал и заполнил нужными данными, затем переместил его с одного устройства на другое, при этом раздел остался примонтирован и данные всё время оставались доступны!
Подобным образом мне удавалось без перезагрузки перенести всю систему с умирающего диска на рэид-массив. :)"

@alekzone:
alekzone

Понадобилось прошить биос, шьется под виндой. поставил винду. прошил. повредилась инфа о lvm партиции. и начала определятся как fat. fdisk и тд не смогли сменить инфу. повредился var раздел арчика который был в lvm. загрузился в дебиан. обновился. о как круто в дебиане. прошла неделя. хочу арчик обратно. поставил скайп 4 а он пол системы сделал в мультарх. попытался восстановить раздел lvm. пришлось удалить, создать расширенным а не первичным. переделать инфу о новом id в lvm. и о чудо арчик снова живой. :)

@Strephil:
Strephil

Почему-то у меня не работает LUKS поверх LVM, не грузится.
Доходит до ввода паролей и всё, казалось бы, надо примонтировать и дальше грузиться, а оно не грузится.
Или это потому что /var на отдельном разделе?

@dr-Chaos:
dr-Chaos

а lvm таки рулит. В любом случае когда тебе нужно будет менять конфигурацию хранилища — добавить свопа, переместить на другой диск, просто добавить физический диск. LVM — рулит. Вот сейчас копирую систему с одного диска на другой без отрыва от производства так сказать.

@gelin:
gelin

RAID0 или stripped LVM?