to post messages and comments.

← All posts tagged работа

Сделал новый бекапный сервер, отформатировал там раздел и попытался таки копировать в два потока, как обычно.
Обломался в смысле скорости двух потоков по двум сетевухам — суммарно было меньше, чем один поток.
Обломался, ибо забыл, что надо бы исключать lazy init.
Сейчас тихо-мирно копирую в один поток и жду, когда второй раздел таки доформатируется в бекграунде.

Решили озаботиться общим хранилищем для некоторых вещей типа мастер-образов виртуалок и некоторых монтируемых образов.
Сейчас они просто лежат в виде копий на каждом сервере. 30Гб*100 = 3Тб...
Как-то оно неэкономненько получается.
Пока вижу следующие варианты:
1) nfs — абсолютно хз, как быть с отказоустойчивостью, но однозначно быстро (на гигабите без jumbo frames получал 125МБ/сек, а по iops больше зависит от нижележащего диска, чем от nfs)
2) sheepdog/glusterfs/распределённый-чёрт-в-ступе на каждом узле (выделить по паре гиг на хранение) — хорошо с отказоустойчивостью вроде как, зато хреново с быстродействием (iops), что может быть чревато.
3) ceph на отдельном кластере — тоже хз, как с быстродействием (в смысле iops), отказоустойчивость в норме, объекты могут быть подключены как диски в qemu, но правильно настраивать — с мягким знаком и не факт, что не придётся переделывать.

Вышел из отпуска. Традиционно обнаружил упавший elasticsearch (из связки elasticsearch+kibana+fluentd).
Судя по отсутствию данных за пару дней — таки всем пофиг, все читают текстовые логи, которые пишет rsyslog.
Вобщем, таки хрен его знает, нужен ли этот падучий сервис, который, к тому же, в пиках не может переварить поток сообщений от форвардящего к нему rsyslog.

На работе опять вспомнили мем про "теряем миллионы из-за вашего сервера" в связи с покупкой клиентом минимальной вдс (гиг памяти) и накатыванием туда битрикса.
Не знаю, что он там накрутил, но было порядка полутысячи запросов к базе на главную страницу сайта и претензии примерно как в меме, только пока без денег :-)

Упал докер в тестовом кластере. Ну упал и упал. Решили не заморачиваться и ребутнуть виртуалку.
Ребутнули, докер поднялся, часть контейнеров не поднялась — не может забиндиться, ибо docker-proxy занимает нужный им ип.

Требуется отрестартить астериск, так как обновление и т.п. Пнул restart when covnenient, жду уже минут 20, пока один из клиентов таки наговорится с техподдержкой...
Вот о чём можно столько говорить?

Пытаюсь изобразить SSO в phpmyadmin его же скриптами из examples
Получаю ошибку `mysqli_real_escape_string() expects parameter 1 to be mysqli, boolean given`
Причём эту ошибку видно только в теле ответа, в котором pma редиректит на `$cfg['Servers'][$i]['SignonURL']`
И, что характерно, ни фф, ни хром тело ответа в инструментах разработчика не сохраняют, сволочи.
Хорошо ещё древняя опера нашлась, там и подсмотрел.

Занимаемся извращением — делаем агрегацию данных из influxdb в graphite.
А всё почему? Потому что биллинг умеет работать только с графитом, а статистика по метрикам требуется чаще, чем раз в 5 минут (иначе не всегда получается определить, какой гад сумел-таки выжрать все iops на shared)

На старом сервере почты LA порядка 190. Утренний pop3, однако...
Впрочем, для него это пока нормально. Надеюсь, к концу года таки сделаем новую почту с более гибким управлением. А пока затык — в панели. Со стороны серверов всё есть, но вебморду ещё не дописали...

Когда язык запросов почти sql, но не sql — это геморрой сразу...
Ставишь некоторые опции, понимаемые практически во всех запросах sql (group by) и тут же напарываешься на то, что поле (time) — не совсем поле, а функция.
Где-то минут 20 искал, как посчитать сумму значения по виртуалкам, привязанную ко времени, а не вообще...
С учётом того, что планируется приложение, которое ходит и в mysql и в influxdb, причём половину, если не больше, писать мне — таки будет ещё много разрывов шаблона...