to post messages and comments.

Introduction to PowerHA for AIX (c):
Multiple resource groups and nodes where each resource group defines a priority order of standby nodes to use
— For example: Primary -> secondary -> tertiary -> quaternary -> quinary -> senary -> septenary -> octonary -> nonary -> denary, and so on

Introduction to PowerHA for AIX:
(с) Сосредоточьтесь на искусстве возможного. Иными словами, затратьте усилия по борьбе со SPOFs, которые могут быть разумно обработаны.

команда ubuntu-ha — редиски, скажем так: репу lucid-cluster в ubuntu-ha поломали, написали, что ползите в ubuntu-ha-maintainers, там тоже lucid-cluster есть, но подстава в том, что там какие-то кривые версии, надо юзать ubuntu-ha-maintainers/ppa — убил, блин, ещё наверное сутки выясняя где же собака порылась (тупо corosync с пустой конфигурацией рестартовал 3 минуты, т.к. LRM килялся по таймауту)

наверное надо тренировать догадливость, ибо до того, что стоит использовать crm resource cleanup вместо crm resource restart догадался далеко не с первого дня ковыряния пейсмейкера

а вот может кто-нибудь подсказать чайнику по поводу разницы использования постгреса на кластере поверх DRBD против использования потоковой репликации из 9-ки?

Ребята, а напомните параметр в my.cfg, чтобы MySQL использовал все свободные ресурсы. Он там неебический кеш делает и забирает под себя всю оперативку. Короче сервер у меня тут чисто под СУБД надо сделать, чтобы он быстро запросики обрабатывал. А я параметр не помню. Хотя конечно буферы-то сами я увеличу для обработки SELECT, ORDER BY и GROUP BY, но это не все... Было там еще что-то, годика четыре настраивал я такое, оно стартовало сначала минут 10, зато потом выедало под себя 8ГБ оперативки и обрабатывало кучу запросов.

graylog2.org Какая хорошая штучка! Это целая система логгинга с поддержкой AMQP. Как оно красиво, интересно и вкусно, но... Ест не мало ресурсов(на джаве написано, к слову), да и применять особо негде.

*cluster *linux Полезная HOWTO'шка по организации высокодоступной posix-совместимой файловой системы на основе двух серверов с балансировкой нагрузки между ними. Использован drbd для репликации блочного устройства между серверами(RAID1), dm_multipath для балансировки нагрузки блочным устройства серверов и ocfs2 в качестве кластерной файловой системы с разделяемым блочным устройством. Хранилище не масштабируется. Статья на французском, но translate.google.com волне справляется:
blog.guiguiabloc.fr

О чём говорили в узких кругах, но чего не понимали php-ёбы, рубисты: habrahabr.ru
Вот таких вот "блоков" будет всё больше и больше. Они будут потреблять энергию планеты, расходуя ценные ресурсы, огромные суммы денег за аренду. А ведь какова была бы экономия если бы там всё было на джаве или пайтоне... А если бы в качестве бд была монго...

Давненько уже в жопе загорелось реализовать где возможно high availability «для бедных», без вложений. Для организации фермы вин2003 терминальных серверов подошёл haproxy. Для CIFS/SMB шар родной микрософтовский кластер серверов не подошел и теперь придётся ковыряться с samba в кластерной конфигурации. Судя по моему опыту использования winbind, будет много мата.

Уважаемые, а кто-нибудь сталкивался с everRun HA или everRun FT? Чем они лучше/хуже уже встроенных в мелкомягкие сервера решений для High-Availability? А то я кроме различия в цене пока отличий не нашёл, правда мне всё больше какие-то рекламные брощюры попадаются, нормальных ревью нигде нет /-: