to post messages and comments.

Я всё размышляю, что же пошло не так, отчего софт всё тормозит, хотя производительность железа всё растёт. Кажется один из факторов — культурный. В информационном поле почти отсутствует мысль о важности отзывчивости и легковесности. Вот сколько я встречал списков сравнения best N apps for task X — не припомню, чтобы хотя бы в одном из них был замер использованного процессорного времени и памяти на выполнение аналогичных действий, примерно как я делал в #2890539 . Вот в качестве пруфа можно погуглить "image viewers performance comparison" — очень мало ожидаемых результатов, всего ~3 в первой десятке! А для запроса "bittorrent clients performance comparison" в первой десятке только одна релевантная ссылка аж от 2010 год (ну и для справедливости ещё одна работа со сравнением скорости скачивания двух клиентов).

В идеальном мире в сравнительных обзорах были бы сравнения производительности с замерами, что давало бы разработчикам соревновательный стимул к оптимизации. Да, premature optimization — зло, но если ты вообще не прогонял свою программу через профайлер, то ты редиска.

Dan Luu жжёт опять. Взял несколько клавиатур и измерил задержку между нажатием на клавишу и отправкой по USB пакета с информацией о нажатии. Получилось от 15 до 60мс, Карл!

И это только в клавиатуре! Мы привыкаем к чудовищной латентности наших компьютеров и не замечаем, как шаг за шагом у нас отнимают скорость. Поразительно, но множеству людей Slack не кажется бесяще тормозным. Как-то надо бы с этим бороться.

Но только как? Как например выбирать клавиатуры по фактической латентности обработки нажатий, если её даже и не замеряют, а рекламируют с помощью тонны маркетингового буллшита, имеющего только косвенное отношение к сути вопроса.

Была у меня уже забавная история как переустановка ОС на ПК привела к значительному ускорению разряда смартфона. А теперь у меня OsmAnd на телефоне заDoSил комп.

Подробности. OsmAnd умеет отправлять HTTP GET запросы с текущими координатами при включённой записи трека, Online Tracking это называется. А у меня давно уже дома крутится принимающий эти запросы наколеночный скрипт, складирующий полученные значения в MariaDB. Обновил на телефоне OsmAnd до 2.7.5 и через некоторое время обнаружил, что он теперь шлёт один и тот же GET запрос тысячи раз. Получив ответ от сервера тут же повторяет запрос до тех пор пока не придёт время отправлять следующие координаты, тогда начинает долбиться запросами с новой точкой. Почему так? Ну мой скрипт корректно отвечал при сохранении координат кодом 201 Created, а OsmAnd считал ответом об успешно завершённой операции только 200. А ответы на дублирующую точку кодом 409 Conflict вообще не похожи на OK, Ну и конечно лучший способ отреагировать на сообщение об ошибке — повторять запрос до победного конца.

Хвала 4G, OsmAnd успевал повторять запросы примерно 25 раз в секунду. Отчего раздел с базой MariaDB переполнялся бинлогами и база вставала.

Ну что, комп vs смартфон — 1:1. Правда в качестве мести не могу это засчитать, смартфон я за это время успел сменить.

Как теперь ещё разработчиков убедить, что им надо пофиксить эту ситуацию до конца.

Что за фигня со свзяностью интернета? Из одного дома не открывается сайт сбербанка. Из другого — dreamwidth.org

Как общественно-полезно обрабатывать человеку такие ситуации?

Цифровая память — ПостНаука

Мне интересно было наткнуться на это обзорное видео о цифровом наследии человека, здесь есть постановка проблемы (стоит при жизни задуматься, что будет с твоими аккаунтами и данными в случае твоей смерти) и обзор связанных с этим проблем. Я сам задумывался об этой проблеме несколько месяцев назад, но довести до ума/конца идею, естественно, не успел. Подход я планировал примерно такой: фрагменты ключа для дешифрования файла с данными для доступа ко всей нужной информации раздать доверенным людям с наказом вскрыть только в случае моей смерти. + Подготовить инструкцию, что делать и подобрать хотя бы пару айти подкованных людей, кому я доверяю, кого попросить помочь моим родственникам разгрести всё это добро, если что.

В видео по ссылке конечно рассматривается проблематика для среднего пользователя, у которого множество ценной информации в соцсеточках и облаках, что не мой случай: у меня многое хранится локально и хочется ещё в большей степени взять свою информацию под свой контроль.

Внезапно в обзоре упоминаются приложения предназначенные для настройки передачи аккаунтов и личных данных доверенным людям в случае смерти. Мне даже не пришло в голову поискать готовые централизованные решения. Дух современного мира "there is an app for that" мною не усвоен. Чувствую себя старпёром. Отчасти возможно изначальная нацеленность на решение задачи без привлечения сторонних программ основана на том, что я не доверяю сторонним сервисам во временном аспекте, ожидаю, что они довольно скоро прекратят работу и для долговременных задач не подходят.

Ну и об этических аспектах влияния на оставшихся в живых, о которых много говорится в обзоре, я не задумался (не успел?).

Надо всё-таки собраться и цифровое завещание организовать.

Надоело мне, что логи journald занимают у меня под гигабайт, а хранят при этом информации за 2 недели. journald туп и не поддерживает сжатие логов. Так что идея была перенести `/var/log` на btrfs со сжатием. Делюсь опытом.

С одной стороны, работает довольно изкоробочно: просто смонтировать btrfs с compress=[lzo|btrfs] достаточно. Хотя journald по-умолчанию помечает `/var/log` как nocow, который не сжимается, но `btrfs filesystem defrag -c` всё же сжимает nocow файлы, и journald проводит дефрагментацию старых (сротированных) логов на btrfs. Ну для надёжности можно ещё сделать `chattr -R +c /var/log/journal`. В целом у меня работает решение, влезает теперь месяц логов на гигабайтный `/var/log`.

Нюанс 1: стоит ограничить размер одного файла логов, чтобы ротация происходила чаще. Я пока живу с `SystemMaxFileSize=16M`.

Нюанс 2: btrfs стоит создавать с ключом `--mixed`, если он будет у вас меньше нескольких гигабайт. И монтировать с опцией `autodefrag` — обновление логов journald ведёт к большой их фрагментации, я видел десятки тысяч фрагментов до включения autodefrag.

Нюанс 3: как посмотреть, работает ли сжатие? Изкоробочных инструментов нет, в интернетах можно нарыть питоновский скрипт btrfs-debugfs. Играясь с ним выяснил, что btrfs сжимает файл блокам по 128 KiB, каждый блок на диске занимает места кратно размеру сектора, так что меньше 4KiB не может занять. Поэтому сжатие получается не такое сильное как при сжатии напрямую lzop или gzip -3.

Ещё на первый взгляд у меня почему-то сжимаются только system файлы, но не user. Пока предполагаю из-за того что пользовательских логов мало, а ротируется system и user лог параллельно, так что system ротируется после двух аллокаций по 8 MiB, а пользовательский — как есть, 8 MiB. Надо бы добраться до исходников journald, посмотреть какая у него внутри логика.

Месяц назад я купил себе свой первый личный ноутбук. Раньше как-то не возникало желания и не было ощущения потребности. Ситуации, в которых я жалел, что у меня нет ноута, возникали пару раз в год, и у меня всегда было где позаимствовать ноут на время.

В последнюю пару месяцев я стал существенно мобильнее, так что покупка кстати, но даже с учётом этого изменения я пользуюсь ноутом гораздо чаще, чем предполагал.

Ну например этот текст я пишу с ноутбука сидя в ванне.

Кажется, я делаю что-то неправильно.

И да, не повторяйте это дома.

Я правильно понимаю, что селектел убил свою убер крутую услугу с VDS на XEN с посекундной тарификацией за использованные ресурсы? Тааак обидно. Хотелось попробовать ещё со времён чтения вкусных технических постов на хабре, но тогда мне VDS был нужен как не пришей козе баян, да и время, время. И вот сейчас подумываю взять для слабого использования, к которому посекундная динамическая тарификация идеально бы подошла.

Или есть ещё хостинги с подобным ценообразованием, а я просто гуглить не умею?

Какой-то идиот из Перу указал мою электропочту в своём uber аккаунте. Куда блин ткнуть в этих письмах, чтобы указать, что это не моя почта, я не понимаю. Пока развлекаюсь тем, что всем везшим его водителям ставлю минимальный балл.

Но забавнее всего было, когда года 3 назад некто с авито указал мою почту (это дало мне полный доступ к его аккаунту) и стал пытаться искать свою вторую половину. Мне тогда даже немного его переписки с кандидатками прилетало бррр... Глаза у меня тогда чуть не вытекли. Попытки объяснить, что произошло и к чему привело редактированием текстов объявлений не привели к реакции пациента. Вроде тогда я сдался просто удалил его аккаунт.

А авито тогда тоже был молодец — присылать указанный при регистрации пароль на неподтверждённый адрес электропочты — за гранью здравого смысла.

Разбираю последние дни закладки в Firefox. Удалил больше сотни устаревших и не нужных. БОльшая часть ссылок ведёт в void. Нет тех сайтов больше, домен давно протух и Wayback Machine в лучшем случае хранит глагне. Обидно.

Ну ладно, я понимаю, что может не доставать пороху поддерживать сайт годами. Но блин, если ты его разрабатываешь так, что wayback машина не может его скровлить, то ты редиска.

Ужасно: под linux нет рабочего приложения для pomodoro. Есть несколько недоделанных глючных огрызков разной степени заброшенности. Прям хоть самому писать. Может попробовать win приложения через wine?

Всё чаще ко мне приходит мысль больше использовать SVG для изображений и иллюстраций. Круто же: семантичненько, файлы занимают меньше места, масштабируется без артефактов. Но почему использование SVG это постоянный "арррргх!!!" ?!?! Куча косяков где их не ждёшь совсем.

Сделал в Inkscape иллюстрацию про близнецовый метод исследования наследуемости признаков. По ссылке уже починенная версия. Поначалу я обнаружил, что во всех приложениях помимо Inkscape вместо текста отображается чёрный прямоугольник. Оказывается, текстовые объекты, создаваемые Inkscape по-умолчанию, это не текст. Нужно после создания обязательно ткнуть в меню Text -> convert to text. Вот какого Баллмера? Версия по ссылке отображается в браузерах так, как я хочу. Но в gwenview и вообще в KDE thumbnails отображается покорёженно. Почему?! Как это чинить? Кто виноват?

И что совсем странно, иллюстрацию я делал себе для карточки в Anki. При первой попытке вставить изображение я получил такой же рендеринг, как и в gwenview. Перезапустил Anki, вставил ещё раз — рендеринг нормальный.

Жутко бесит, что клиент-банки для мобильных операционок накладывают какие-то требования на операционную систему твоего смартфона. Чтоб su в $PATH не было и вся вот эта хрень. Столлмана на них нет.

Высказали тут идею, что нужно открыть свой опенсорсный банк. Хм. На второй взгляд эта идея даже не столь бредова, как на первый.