• Linux slow В Rasbian увидел интересный пакет — hardlink. Ищет одинаковые файлы и заменяет их хардлинками. Гениально же. Экономим место. Я раньше использовал только fdupes (с ключами -rd) для поиска и удаления дубликатов, но это подходит только для пользовательских файлов. А например в /usr полно одинаковых файлов, однако они нужны на своих местах. Тут hardlink может помочь. Вот пример с моей рабочей машины (X11, KDE, Iceweasel, LibreOffice, все рюшечки):

    sudo hardlink -vt /usr
    <…>
    Mode: real
    Files: 81119
    Linked: 5044 files
    Compared: 873390 files
    Saved: 78,52 MiB
    Duration: 307,29 seconds
    ♡ recommended by @deep

Replies (11)

  • @rwarrior, на спичках экономия же
  • @a13, В распберях 80 мегабайт далеко не спички. Целые брёвна, как я полагаю.
    Вообще идея интересная, но делать хардлинки, не спрашивая каждый раз администратора, опасно. Может, какие-то файлы лежат на своих же местах как резервные копии на случай неправильного изменения исходного файла. И тут хардлинк всё испортит. А спрашивать админа 5000 раз одно и то же тоже нельзя: воспользуется командой yes.
  • @fLegmatik, 80 мегабайт с рабочей машины. Вряд ли ТС работает на rpi.
  • @a13, Я на rpi тоже проделывал, там поменьше было, да.
  • @rwarrior, в любом случае — теоретически файлы могут быть одинаковыми в данный момент времени
  • @a13, Теоретически да. Но смотря в каких случаях. В /usr? Нет.
  • @rwarrior, в смысле я про то, что в следующий момент времени они могут стать разными, и в итоге какой-нибудь debsums будет ругаться
  • @a13, и вообще, слакота это всё
  • @a13, Не может быть такого в /usr, его можно вообще в RO монтировать
  • @rwarrior, в смысле не может? ты что, пакеты не обновляешь?
  • @a13, Обновляю.