← All posts tagged profit

Внезапно тазик на Google Cloud Engine 8ядерный, 32Гига, 8 локальных SSD стоит в районе $240/m.

Сделал для бенчмарка, получил RAID0 read speed 4 G / sec суммарно 2.6Т. Очень хорошо там хранить исторические данные для анализа.

В целом angular dart ничо так, терпимо. Цикл edit-compile-run конечно подольше чем был в славном gwt, секунд 25 у меня на 2ядерном гейбуке.

Профит в том, что тайпчекает выражения в html шаблонах тоже, что немного утешает. Ну все остальное тоже тайпчекает, кроме левых проколов, таких как если ты написал левый тег, то он его молча как есть оставит. Всякие SCSS тоже нихрена не чекает, легло оно на что или нет. Но импорты в них понятно, ругается.

На безрыбье и рак — рыба.

Загрузил немного данных в яндексовскую БД ClickHouse, сравнить перфоманс с KDB.

Clickhouse ничего почти кроме селектов не умеет, полезного мне мало (на KDB можно писать на супер-клевом встроенном языке который работает со скоростью самой бд, на clickhouse нет — вытаскивай результаты например в жабу и дальше только жаба, тащемта, а зачем мне жаба, шо я, буду на ней статистику гонять?).

Померял простой group-by, на memory table кликхауз уделал на этих запросах аналогичное KDB раза в полтора, на сжатой таблице хранимой на диске где-то того же порядка результат. Ну чо, нормуль, одобряю. Писать более сложные тесты не стал, потому что ну его нафиг, вот почему. А, и еще у них там сэмплинг есть при желании, то есть берутся не все данные, а регулярные кусочки, и по ним считаются приближенные данные, в кдб такое надо явно писать, но не было нужно.

Вердикт: перфоманс действительно на высоте, но использовать это для полезных целей кроме самого простого анализа time series не вижу смысла.

вот раньше такая штука была, "zmodem" называлась. Шо это такое: сидишь в терминале, тебе запущенная в терминале консольная программа генерирует специальную последовательность, которую ТЕРМИНАЛ понимает и складывает в файл рядом с собой. Нужно чтобы передать например файл из консоли прямо ко мне, через сколько бы там я штук ssh не сидел далеко. Нужно, чтобы терминал умел понимать zmodem как он понимает ansi sequences. И кстати в другую сторону тоже работало.

Но, насколько я понимаю, это секретное знание древних уже утеряно. А что нынче альтернативой?

Решил, дай-ка проверю, что местная контора сварила на новый год.

Ппц, я живу в раю, в 22 веке! Не знаю как в РФ, но имхо это уже за пределами щастья (определенного рода, конечно). Да, достаточно честный 3G, 15 мбит в городе, по ощущениям есть, я не мерял нарочно. У нас в гребенях тоже быстро.

Киевстар, 3G, 90грн ($3/мес)

Закинул удочку в Serokell, которые вроде б то под руководством Дарта Вейдера^W^WPhilip Wadler пишут свой альткойн на Хаскеле. Питерские, но ищут remote чуваков.

Они созрели и прислали тестовую задачу зафигачить распределенный леджер на блокчейне на хаскеле, с указанным криптоалгоритмом и простеньким API.

Говорят, что работы на 8-9 часов, прислали небольшую заготовку, которая по юникс сокетам коммуницирует, API неможко парсит, таймауты там тестовые имплементит, которые нужны по ТЗ, молодцы.

Бросаться в это? Кто пропустил и хочет, могу зафорвардить, они раскидали тем, кто выразил интерес в середине декабря.

Какой смысл в node.js если есть dart?

Варианты ответов: 1) под ноду есть офигенне ВЕБ-фреймворк, без которого не жизнь, и оно без ноды на сервере не живет 2) реюзать код с бровзером

В моем случае: чисто енларг-подобный процессинг: схватил — сцепил — залил/отдал, никаких веб фреймворков. Шарить с вебом тоже нечего. Зато строгая типизация с тайпчекером, системные штучки искаропки, раздельные кучи, и самое главное — это то, что оно задизайнено все изначально как надо, не костыльно, весь тулчейн включая package mgr.

Говорю как человек, который к ноде подходит только издалека палочкой потыкать, чтобы не развонялось, а вот с дартом у меня такого нет.

Неявный вопрос звучит так: может я пропустил что-то, что в этом направлении идет еще дальше дарта?

Мечта человечества была не голодать, нажраться. Вот, хавка вроде есть. Теперь мечта жрать и не жиреть, на глагне реддита "многообещающие колеса, позволяющие жрать и не жиреть, ускоряют метаболизм жира в клетке, проверено на мышах". Да, все верно, в отличие от предыдущих колес, НЕ подавляют аппетит.

reddit.com

KDB+ начали раздавать почти бесплатно. Если раньше лицензия на ядро стоила бешеных бабок (тысячи в год), и выдавалась вручную, то щас туда впилили динамическое измерение ядер во время выполнения, оно теперь постоянно стучится домой, и чуваки разворачивают его на cloud по 5 центов за ядро/час, а малые инсталляции (до 16 ядер) вообще вроде даром для личного пользования (до того была unlimited 32bit версия, но это просто смешно).

tech.marksblogg.com вот тут чувак между делом меряет перфоманс и занимается вещами, которые лично мне не доводилось щупать. Там же сравнение с другими СУБД.

Мытарства с гейбуком почти подошли к концу.

Купил Mi Wifi 5GHz, поставил прямо возле гейбука (а не на другом этаже 2.4), проблемы с сетью под линуксом ушли. Проблемы с блютусом под линуксом ушли. Возникли проблемы, правда с 5Гц. Сегодня на утро он не анонсируется и не коннектится. On/Off 5Гц через местную админку починили говно. Видать, зря я сэкономил вместо микротыка (микротык который теперь я хочу сюда — это 5Гц/ГигабитЕзернет стоит $125 баксов, хочу в будущем гонять по нему много по дому).

Также гемор с медленной отрисовкой на 4К мониторе — перевел резолюшн пониже под макосью. Он-то и был не нативный, а scaled, а теперь он еще менее нативный, зату сцуко стал значительно быстрее.

Оказывается, гей-ось у себя внутри рендерит весь экран на opengl surface указанного размера (larger text == меньший размер surface), потом (КАК-ТО?) его проецирует на opengl surface размера нативного резолюшна (монитор 3840 x 2160) и эту картинку гонит через displayport, монитор показывает 3840. Есть у него и низкие разрешения, проецируется на меньший резолюшн, хотя монитор все равно показывает сигнал 3840 x 2160.

Так вот, я провел исследования как выглядят шрифты на мониторе после всех этих пертурбаций. Сделал 2 замера: полностью нативный резолюшн (когда на экране все очень мелкое но быстрое, и пиксель-в пиксель), и тот резолюшн где снова не тормозит потому мелкий резолюшн (1504 х 846) . Результаты на картинке внизу. Нужно понимать, что страдал я под тормозным резолюшном где-то в половину от нативного, где был доволен шрифтами, хотя они УЖЕ были "пикселизованные". Эту пикселизацию я и пытался измерить на картинке, чтобы устранить внутренний вопрос "ты шо, с 846p на 2160p мониторе работаешь???"

Резюмируя, как у женщины покупка новых перчаток (или носового платочка?) влечет за собой смену всего гардероба, потому что к новым перчаткам нужно и то и се, так у меня драйвером видать стал 4К монитор, из-за него столько движений.

Отключил compositing в KDE, и под линуксом на 4К ВСЕ стало жрать меньше в 5 раз (а так — анимированная вертушка в хроме жрет столько-то процентов, да и вообще сам он покушывает). Теперь вообще клевота.

А под гей-осью (macosx) так делать запретили в купертине!

Я замерял latency ввода клавиатуры гейбука на манер как делал афтор в матерьяле #2886434. Ну, скажем, что рендеринг страницы еще добавляет времени.

Короче, 7 кадров 120 FPS ~ 60 msec. +/- 16 мсек на рефреш — это встроенная клава + встроенный монитор гейбука.

А вот 4К моник (тоже 60FPS over DisplayPort) плюс механическая клава (CM Storm) дали реакцию 4 кадра, что составляет ~ 33 мсек +/- 16 мсек на рефреш.

Думаю, дело в клаве. Картинка, для удовольствия читателя, прилагается (встроенная клава+моник).

А если мерять в IDEA, там все 80 мсек по ощущениям 8(

Решил убрать полу-рабочий десктоп с линуксом нафиг из жилого помещения в пристройку, шоб не гудел мне тут в доме. Там хорошо так винтов всяких и вентиляторов напхано.

Возник вопрос — как на нем работать. Нужен хороший и быстрый удаленный десктоп для линукса, чтобы ходить с тупой тормозной безвентиляторной маленькой железяки. И чтобы не страдать.

VNC всякий отпадает т.к. тормоз.
NX / x2go отпадает т.к. рисует не так как в оригинале, и тормозит на передаче картинок
Teamviewer лучше, но тоже тормоз.
Оригинальный X протокол там в нем часто половина не работает, opengl вызовы тоже.
AnyDesk идея хорошая использовать low latency видео-кодек, но реализация кривая с клавишами которые не передаются половина шорткатов, да и в последней версии там уже и изображение кроме первоначальной картинки не ходит — доломали.

А вот Chrome Remote Desktop взлетел и полетел. Тоже быстрый видео-кодек, и передает все кнопочки, особенно если на клиентском компе запустить тупо голый X с оконным менеджером, от которого нужно обработать запрос на fullscreen окно с клиентом Chrome RemoteDesktop, и еще нужно убрать все шорткаты с этого оконного менеджера, чтобы они шли на удаленный комп.

И вот просто взяло и заработало. Звук еще не настраивал, пишут что прикрутили в октябре 2016.

Я свичнулся с Жабы на Котлин в основной разработке.
Основная причина проста: просто приятна обновка.
Всякие фичи Котлина прекрасны. К Жабе претензий тоже нет — изумительный язык. Я не страдаю от ее многословия.
Можно назвать множество причин переключения — фич ради, конечно.
Но основная — это просто что-то новое, просто новизна, которая будит уснулую часть мозга, которая уже сделала свое дело, доведя до автоматизма свою часть работы — выражение себя на жабе — и спала уже давно.
Это могла быть и Скала, — Скала просто прекрасна, — но Скала более неудобная в работе: из-за ее гениальной разноликости она чересчур тормозит в инструментарии (компилятор, IDE), что начинает напрягать через некоторое время. Это чувствует и Одерский, который пишет другую, несовместимую версию Скалы, более шуструю.
Больше пока вариантов нет. Остальные либо тормозят в рантайме, либо без статической типизации, либо без tools.