Один из забавных моментов недавно — это настройка переменных с путями, которые можно использовать как часть остальных путей. Можно их менять, кликнув на значение, но как добавить? Это нетривиально.
На скриншоте показана последняя из 30 страниц настроек проекта, Swift Compiler Search Paths, Warnings Policies, User-Defined. Вот последнее — это оно.
Менять их можно, удалять — не нашел как, добавить — нашел как (но я вам не скажу). Картинку посмотрите, ответ в комментах.
#2926758 — теперь батарея штатно заряжается до 80% и висит там в on hold
яблоки наконец-то решили нормально проблему имеем: клава, мыша, displayport монитор, один какой-то доп гаджет, например камера, который иногда надо втыкать.
дырок мало в гейбуке.
берем хаб, средней цены, не говно. хаб втыкаем в одну дырку.
монитор через него не идёт, хотя там есть сквозной type-c, не работает с монитором. Еще там есть HDMI разъем, но там фрейм рейт низкий, 4к 60фпс не тянет. Итого — втыкаем монитор напрямую, минус одна дырка в гейбуке.
Втыкаем хаб во вторую дырку. Через него работает основной колхоз, но оттого что туда воткнуты девайсы с разной скоростью и типами: клава, мыша, и например камера со стораджем, то камера со стораджем при копировании файлов регулярно отваливается, потому что клава регулярно ее прерывает, так вижу (я в курсе что в идеале всё должно работать). Провода исключены, годные. Говнохаб?
USB keyboard, раз в 5-30 минут не приходит какой-то key-up евент, и мак перестает клавишу видеть, она больше не нажимается. Софтверно починить не осилил. На клаве вытыкаю из нее USB cable, через секунду назад. Ресет такой. Работает.
Думал хаб такое себе. Нет, купил переходник прямо USB-А в USB-C, там внутре нету хаба, чисто физический конвертор, клаву подключать напрямую в порт. Купил блютус мышу. Теперь воткнуты монитор и клава, мыша сбоку, гаджет плачет в углу, втыкаю его вместо клавы или монитора.
Клава всё так же теряет буквы даже в такой конфигурации. Клава механика среднего уровня. На PC работает без выкрутасов.
Такие дела. Можно купить клаву механику блютусную, или не выделываться и просто блютусную. В прошлый раз, лет 8, блютусная клава на другом железе, кажется, регулярно (раз в 10-20 минут) теряла нажатие, вызывая невроз. На всех компах.
Почему не православный фулл-сайз десктоп? Потому что жизнь на колесах, бывает даже без розетки, кроме тех периодов когда она не на колесах как щас, и впадлу десктоп тягать с монитором туда сюда.
Чувствую как постепенно превращаюсь в мак-быдло, ощущения позорные.
p.s. Можно не выделываться и говнокодить в парке на лавочке, на коленях, летом. Порты не нужны (с). Шутка.
defaults write com.apple.desktopservices DSDontWriteNetworkStores true
такое мнение
есть Гейбук 2019 года 15" на i9 он с собою приносил.
Карочи я прозрел. Я тут меряю memory bandwidth для memory intensive задач, короче там 17ГиБ/сек дай бог если будет. На моем ленове там под 30ГиБ/sec. Потому что в гейбуке -power-efficient memory.
А второе — я ПОНЯЛ почему яббл добрых 4 года всем насильно сувал людям свой БАТТЕРФЛЯЙ кейбоард, ремонтировал его итд и пиарил как самый лучший.
Все просто.
Естественно он не самый лучший. Его роль в том, чтобы не слишком сильно выделяться эргономикой и видом от насильно внедряемого тачбара. У него нулевая высота от поверхности, нулевой ход, и у тачбара нулевая (или отрицательная даже).
Вижу, дело было так:
Главный гомосек-дизайнер в конторе на главном митинге тогда сказал: вы молодцы сделали тачбар как я хотело. Тачбар будет в продукте 100%, пути назад нет, это стратегическое направление на 20 лет. Но случилась беда: он реально так сосет по сравнению с клавиатурой, что хоть плачь, и что делать? Нужно решение.
И тогда кто-то с галерки сказал: давайте сделаем новую клаву — едва ли лучше тачбара, чтобы они как-то лучше визуально и тактильно смешивались друг с другом, чтобы она не оттеняла тачбар настолько, как щас. Босс, ваша проблема будет решена. Нужно выиграть совсем немного времени, несколько лет, тачбар закрепится в сознании как неизвлекаемый зонд, наберем критическую массу стада. Кстати, тогда и продадим им обратно нормальную клаву, отличный будет рекламый ход, нас будут на руках носить, и даже простят тачбар. Win-win situation.
Потом этому чуваку дали премию и золотой парашют.
гугл меня не понимает и советует дичь :(
Мое предыдущее пророчество было после появления тачбара, что у них tic-tac цикл, типа, вначале делаем говно, потом продаем фикс, таким образом фанаты сначала не веря своим глазам покупают говно, потом избавление от него. Это бы сработало если бы вот в 19 году вышел исправленный девайс.
Но, судя по тому, что тачбар где был, там и остался, у них там происходит одно из двух: 1) там вообще они все тупые (или юзеры жрут?) 2) цикл у них на самом деле tic-tic-tac, то есть может они прислушаются в следующем году?
>
Людей привлекает в изделиях Apple то, что вне зависимости от того, что вы пытаетесь с ними делать, они не работают так, как вы от них хотите. Как следствие, вы вынуждены бросать все попытки их настроить под себя, и вместо этого начинать подстраиваться под то, как эти продукты работают. Это освобождает кучу времени и внимания, которое было бы потрачено на борьбу с ними.
Так как эти изделия по факту подходят для большого количества людей, и так как вы в принципе умеете адаптироваться, следовательно, вы уверены, что сможете адаптироваться к ним.
Выбрав однажды путь адаптации себя к изделиям Эппл, каждый раз эта адаптация для вас оказывается все легче и легче, пока не становится полностью бессознательной. Каждый раз как Apple убирает полезные для вас фишки, ваши привычки идут лесом, но, в конечном итоге, вы покорно всё принимаете.
via news.ycombinator.com
Отключил еще window manager композитинг нафиг. Зачем? Наслаждаюсь ветерком.
Посидел неделю на KDE. Очередной подход считаю завершенным, вернулся в Mate, там как раз давеча hidpi прикрутили.
Новое железо (Lenovo X1 Extreme) рулит по скорости, но есть некоторое "но" у Макоси по сравненю с Линуксом, которое в принципе не лечится на Линуксе. Например в макоси на каждом мониторе свой scale factor, а в Линуксе одно на всех, поэтому окна с 4K монитора тянутся на встроенный, получаются крупные (у меня не 4К на ноуте). И еще особенность этого ноута, встроенная видяха (intel) не умеет в 2 монитора, только nvidia. Кинул ноут в рюкзак — а там по прежнему нвидия работает, т.к линукс не умеет в оптимус (про bumblebee еще не ковырял, пишут что вроде умеем), а пока что его нужно ребутить для переключения из nvidia в интел. Потребление idle 6W vs 20W, такие дела.
Плюс набор софта у меня там был для time tracking (ловил урлы, приложения, показывал таймлайн, суммы, теги по проектам, рисовал суммарное время). Тут пришлось свое быренько набросать.
Но все плюшки линукса УРА! Акселераторы! Шорткаты в пальцах!
P.S. Для красноглазиков — это отключается
Приходишь ты на iTunes, нажимаешь гет, а тебе: "А фигле у тебя макос не обновлен, так нельзя".
Закрываешь iTunes.
Fuck you, that's why.
Одолел на гейбуке FFMpeg, OpenGL, OpenCL, OpenCV, SDL и VideoToolbox hardware decoding, писал на плюсах.
Короче, FFMpeg через RTSP получает кусочек фрейма с IP камеры.
Затем это скармливается в VideoToolbox. Он мне в GPU дает буфер.
Потом это я из этого делаю OpenGL текстуру, из нее делаю OpenCL mem_obj.
Потом таки GPU->GPU копирую в OpenCV UMat (GPU-based матрицу) для алгоритмов всяческих.
Потом делаю алгоритмы
Потом стало быть беру из SDL тот SDL_Surface который рисую, и маплю его на другой mem_obj
Потом копирую из OpenCV матрицы (GPU->GPU) в етот surface/texture.
И потом тут же его рисую снова через SDL не вылазя в host RAM. Наверняка, если потрахаться с форматами текстуры, можно и не копировать, миллисекунду-другую выигрываешь.
Короче, выходит, что все быстро декодируется, весь процессинг и отображение происходит не покидая GPU, с дыркой куда вставить OpenCV/OpenCL вызовы для графических алгоритмов.
Все это дело занимает 7% CPU и чуток GPU на 25 кадрах Full HD, около 7 мсек на кадр выходит (в основном декодирование 5 мсек). У меня на гейбуке устроен Intel IRIS 6100, это подобие GPU.
Когда я стал затем прикручивать OpenCV процессинг на тамошних матрицах, оно занимает по 4-5 мсек на проход одной матрицы кернелом, просто чтобы хотя бы сложить 2 такие матрицы. Потому что Full HD и интел. А целиком весь мой задуманный процессинг получается 100 Мсек на кадр, потому что куча матричных операций. Это неинтересно. Полез смотреть как оно устроено, увидел там как выглядит голый OpenCL kernel (и не один), чей исходник они препроцессором допиливают под конкретные типы прежде чем запускать.
Решил, а чем мы хуже. Взял переписал весь свой алгоритм на OpenCL на тамошней сишечке, OpenCV предоставляет простой API. 18 миллисекунд на кадр, братие! Из говенного интела! Туда еще столько влезет!
Короче, прикольно-то как! Чувство глубокого удовлетворения.
Тут кретин и я, и они, которые изначально пишут только частоту даже на официальной странице "specifications".