← All posts tagged Nvidia

PoZitron
· Edited
Linux Ubuntu звук Nvidia *звук *ubuntu *linux *nvidia
Установка каждой новой версии Убунты сопровождается появлением новых багов костыли под которые придумываешь потом всё время её использования.
В 20.04 у меня появилась раздражающая проблема что звук прерывается на пару секунд при включении заставки и подключении/отключении монитора.
В этот раз я заметил в логах сообщение:
snd_hda_codec_hdmi hdaudioC0D0: HDMI: invalid ELD data byte 1

Очевидно что это связано с hdmi-звуком, которым я не то что не использую, так он ещё и маячит в настройках звука даже когда его там отключаешь. Что ж, заблокировал загрузку модуля создав /etc/modprobe.d/blacklist-snd-hda-hdmi.conf ... но он всё равно загрузился. Прочёл что такое бывает с некоторыми модулями, есть обходной путь:
install snd_hda_codec_hdmi /bin/true

Да, сработало!
+1 костыль, -1 неприятность
PoZitron
Ubuntu ненависть Nvidia Дай, думаю, отдохну после тяжёлого рабочего дня, посмотрю фильмец, расслаблюсь. Ага, как же. В VLC артефакты на видео, smplayer вешает систему намертво. Всё. Никаких "отдохнуть", надо 3 часа пробовать разные драйверы! Естественно я почти уверен что дело в драйверах nvidia, только он может вешать систему намертво, но мне от этого легче?
PoZitron
Linux Nvidia Столкнулся с проблемой, что видео 1080i закодированное h264, смуксенное ts-контейнер, почему-то мерцает с VDPAU, практически не воспроизводится. Звук идёт нормально, а картинка зависает и быстро мерцает.
После отключения VDPAU работает сносно (артефакты при перемотке только).
PoZitron
Linux Nvidia Говорят nvidia заблеклистила фреймбуфер в одной из версии драйвера, поэтому plymouth выглядит как всегда убого. Решение:
В файле /usr/share/nvidia-current-updates/nvidia-current-updates.grub-gfxpayload закомментить строчку
#v10ded.*sv.*sd.bc03sc.
затем
sudo update-grub-gfxpayload
sudo update-grub

У меня работает. Мало того, лучше чем в 11.04. Нет кракозябр в VT, нормальные шрифты и текст.
PoZitron
говно Nvidia Надоело что эффекты не тормозят только когда нвидиа "раскочегарится". За что я платил деньги? За S3Trio64V+ или современную мощную видеокарту? Я уже давно склоняюсь к первому варианту, потому что это говно работает на частоте 101 МГц, вместо заявленных 1400. НУ ИНОГДА, так и быть, оно переключается на полную мощь.
Короче, добавил nvidia-settings -a [gpu:0]/GPUPowerMizerMode=1 в автозапуск, это переводит её в "Perfomance Mode"

PS Кстати у меня ощущение что именно из-за PowerMizer падает заставка выключения. Знаете почему? При падении частоты "пропадают" и многие видеорежимы. Именно поэтому у нас нет 1920х1200 при загрузке, — нвидиа это объясняет включённым по-умолчанию, на уровне железа, PowerMizer'ом, который ограничивает количество режимов фреймбуфера.
PoZitron
Intel Nvidia CPU GPU Под конец поста на Хабре про встраивание интелом графического процессора в центральный процессор, я прочёл мнение NVidia на этот счёт, и меня замкнуло. Дело в том, что передо мной вдруг предстал расклад вида "щука, лебедь, рак": Интел хочет вставить графический процессор в центральный процессор, тем самым заявляя что видеокарты более не нужны. Нвидиа хочет воткнуть все вычисления в мощные графические чипы, при этом делая из центрального процессора какой то своей "контроллер" на "подхвате". До смешного доходит, на видеокартах Nvidia Tesla, нет видео-выхода вообще :)
Кто же победит?
Каждый тянет одеяло на себя, но если подумать, то никто не может стать абсолютным победителем. Представьте себе любую современную игру, на графическом чипе, впихнутым в процессор. По-моему этот вариант не подходит для геймеров, а значит не подходит большинству. Представьте теперь что у вас мощный процессор, но видеокартой можно "добивать" производительность, и очень даже прилично. И что, вы будете покупать материнскую плату с четырьмя-восемью PCI-E слотами? И все эти слоты заполнять видеокартами тыщ по 10-20 каждая? БП на 3000 Ватт покупать? Зато зимой обогреватель не нужен.
Из этого всего, получается что меньше всего им нужен сегмент обычных персональных компьютеров. Даже не хотят они его видеть, на обычные ПК они точно не полезут.
Далее я вижу 2 сегмента, где они друг с другом не пересекаются: "офисы" для Интел, "серверы" Нвидии. Тут всё понятно: интел впихнёт в процессор то, что будет выдавать хоть какую то картинку. Нвидиа даст серверам очередные мощные "нагревательные элементы".
И вот, самое интересное — ноутбуки/нетбуки. Что будет делать интел? Очевидно же: есть процессор, в нём выводилка графики, как и в случае с офисом — лишь бы выводила. Вопрос напротив производительных ноутов — их всё равно не устроить такой уровень.
Нвидиа даст полноценную графику... но умеющую лишь что то там ускорять (кодирование/декодирование видео и аудио, флеш, отрисовку графики например в браузерах, и в будущем вычисления типа фотошопа и компиляторов). В реальности же, пыхтеть будет основной процессор, а мощности видеокарты простаивать.
Итого: интел предоставляет нам более дешёвое решение, оттого и ограниченное. Нвидиа балует своей быстрой графикой, видео и некоторыми специфическими вычислениями, но по-прежнему занимает место, жрёт энергию, деньги и простаивает чаще чем работает.
Так кто победит?
PoZitron
Linux VDPAU Nvidia CUDA катится этот мир — часть -1* ("минус первая")
После предыдущего теста CUDA, вспомнил что когда то завёл у себя vdpau и остался доволен. Объясняю:
vdpau это такой интерфейс для видеокарт nvidia, который позволяет использовать вместо процессора мощь видеокарты при воспроизведении видео.

Когда то мне надоело что я не могу смотреть на своём 22х дюймовом мониторе полноценное HDTV-видео, я решил купить себе новый компьютер, с дешёвой видюшкой и мощный процессором. Купив компьютер, я нарёк его мультимедиа-центром и успокоился. Прошло время, у меня канал из 512ти ненастоящих килобит превратился в стабильные 20 мегабит, мой 22х дюймовый монитор мне показался мал и я купил себе монитор на 27 дюймов и окончательно удостоверился что мой комп — мультимедийный центр. Разочаровал меня первый же полноценный фильм (гигобайт 14 и больше). Я негодовал. Процессор в обычно время работающий на пониженной частоте из-за того что ему не хватало работы, в момент обработки настоящего HDTV умирал и видео шло с тормозами.
И тут я знал про vdpau...
Это чудо!!! Любое видео идёт плавно, без напряга вообще! Нагрузка процессора при воспроизведении видео — 0-3% О_о ВСЮ работу берёт на себя видеокарта. Моей радости конечно же не было предела, чем я и хочу поделиться с вами.

Итак, для vdpau требуется:
1) видеокарта nvidia с её поддержкой (да уже почти любая)
2) драйверы с поддержкой vdpau (да уже почти все)
3) кодеки собранные с поддержкой vdpau (да наверняка у вас именно так)
4) плеер с поддержкой vdpau (эм.... :( mplayer. точнее я использую smaplyer)
Первые 3 пункта у вас стоят :) А в mplayer нужно указать вывод "vdpau"... и что? И ВСЁ!
Чтобы проверить что всё правильно... можно запустить "тяжёлое" видео :) Ну а можно посмотреть какой кодек используется при воспроизведении видео. Вы должны с удивлением обнаружить что оканчивается он на "vdpau" (например "ffh264vdpau").
Видеокарты поддерживают только кодеки используемые для HDTV-видео (см. табл. и то, что под ней: en.wikipedia.org ), а не все подряд.

PS кстати оказалось что я мог и на старом компе использовать ускорение, просто я об этом не знал и лохонулся купив этот комп
PoZitron
Linux Nvidia CUDA CUDA катится этот мир...
Решил попробовать кодирование флака с использованием ускорения видеокарты (http://braintorch.habrahabr.ru/blog/83787/).
Результаты не так впечатлили меня, как однажды, когда я включил аппаратную обработку HD-видео.
Обычный кодировщик справляется с файлом за минуту. Кодек с использованием видеокарты справился за 41 секунду. Остаётся теперь понять: то ли у меня компьютер хороший, то ли видеокарта одного уровня с процессором... но заоблачного увеличения кодирования не заметил.
Нагрузку процессора было лень проверять. Вместо этого, смотрел на апплет изменения частоты: в обычном режиме он у меня всегда чётко на пониженной частоте, а вот когда что то кодируется то может иногда даже своей исходной частоты достигать :) И во время кодирования обычным кодеком, и во-время кодирования кодеком с CUDA, апплет изредка ненадолго переключал частоту процессора... в общем то, тут тоже я особой разницы не вижу (для сравнения — я когда смотрю HDTV с использованием ускорения видеокарты, у меня нагрузка на проц — 0-3%)