Чтобы добавлять сообщения и комментарии, .

@netang:
netang

На работе стоят такие карточки. Мне жаль оттого, что на них считают не очень полезные модели или они вовсе не используются. Но я рад тому, что у меня есть возможность запустить на расчёт что-нибудь своё. Круто было бы рассчитать полет космической ракеты, например. А потом написать десяток scopus'овских статей и завербоваться в SpaceX =)

@nixon89:
nixon89

Вот такой ламерский вопрос у меня сегодня: есть например сервер типа hp dl160 g6 или hp dl360 g6 — можно ли туда в него воткнуть видеокарту дискретную нормальную?
А то встроенные в них графические адаптеры всего на 32Гб.
Для тролей: нет, я не собираюсь играть в танки/варкрафты/прочуюхрень на сервере. Просто интересно — можно ли вставить? Предусмотрел ли производитель такую возможность? И вообще практикуется ли такое?

@4DA:
4DA

The PlayStation2 vs. the PC: a system-level comparison of two 3D platforms
arstechnica.com

@4DA:
4DA

Короче когда щас запустил свой велосипедодвижок, то при приближении к модельке (=> росту числа вертексный и пиксельных операий) усиляется высокочастотный шум.
Я слышу как работает GPU?
Если суспенднуть процесс, который рисует то шум продолжается.

@4DA:
4DA

Вдогодку к предыдущему посту.

imgtec.com

@4DA:
4DA

Тем временем в современынх PowerVR в железе уже есть поддержка
рейтрейсинга. Идея в том, что для каждого объекта пишется шейдер, определеяющий
что делать с лучом, пущеным из камеры.

smth like that:
gist.github.com

@Disabler:
Disabler

В продолжение предыдущего поста: решение было найдено за два с половиной часа. Как оказалось, проблема была в приложении "Клиент SyncML", которое включено в прошивку.

@Disabler:
Disabler

На новом телефоне как-то странно работают игры. Большинство периодически передёргиваются. Экран становится чёрным и через долю секунды картинка появляется занова. Часть игр при этом ставятся сами на паузу, часть просто передёргиваются и продолжаются, часть полностью перегружаются. Такое чувство, что какой-то процесс хочет запуститься "поверх" игры и тут-же вылетает. Кто-нибудь сталкивался с таким? В какую сторону копать?

@4DA:
4DA

О, хоть какая-то инфа про amd mantle.
youtube.com

@4DA:
4DA

С помощью такой-то матери поднял fglrx.
Идут года, как говорится..., херовым он и остался.

Без костылей поднялось только на старом ведре старая версия драйвера.
unigine valley на high c разрешением 1366x768 показывает ~27 fps с охуенной дисперсией.

Дрова поддерживают opengl 4.2, спефицикация на который вышла в 2011.

(У невидии, кстати, в бете уже есть свежий 4.4!)

@4DA:
4DA

Сходил, купил radeon 7790

@4DA:
4DA

Чят, реквистирую людей с свежей видях nvidia и линуск.

Можете скомпилить это говно и посмотреть насколько будет грузиться CPU?
github.com

У меня есть подозрение что моя старая видяха/драйвер не умеют в нормальный Transform Feedback,
поэтому взвинчивают CPU до 100%, что смешно и нелепо.

Спс.

@paulfertser:
paulfertser

*nvidia *interview blog.emmanueldeloget.com

@4DA:
4DA

Возьму в аренду любую видеокарту на базе чипа AMD Evergreen сроком на пару месяцев.

Цена договорная.
Репост плз.

@4DA:
4DA

<dca> понимаешь, для gpu мало одних симодв
<dca> это люди, поюзавшие куду/опенцл решили: ой бля да как тут все просто, а
на самом деле там хитрая синхронизация, текстурные блоки/кеши, семлперы,
буфера фифо etc, то есть нихера не просто.

@yelbota:
yelbota

Можно наивный вопрос? Раньше всегда считал, что для производительности GPU-приложений самое главное это количество треугольников и сложность шейдеров. Сейчас вот, связавшись с этой темой по-настоящему, выясняю, что есть еще такая тема, как дроукол, и что если эти дроуколов дофига, то приложение будет тормозить, даже если каждый из этих дроуколов будет рисовать по два треугольника с примитивным шейдером. Так ли это?

@4DA:
4DA

А солярка-то еще шевелится. Оказывается, под нее щас пилят радеоновские дрова.

@4DA:
4DA

Внезапно размуный тред на ЛОРе от специалиста почему иксы надо закопать.
Рекомендую.
linux.org.ru

@Gem:
Gem

thg.ru

@borman:
borman

Жуйк, а чем можно попрофилировать шейдер?

@Dragonizer:
Dragonizer

Жуйк, такой вопрос. Как узнать, чем занята видеокарта?
У меня ноут с двумя видяхами (встроенная и дискретная), которые можно переключать на лету (экономия энергии или производительность). Если при этом запущена игруха и т.п., то переключить не дает, "ресурс видеокарты используется". Стоит закрыть, — все ок.
Но в редких случаях не дает переключаться на ровном месте. Вот это бы я и хотел вылечить.

@amyodov:
amyodov

Ой, какая красота — code.google.com — data-parallel Python для GPU.

@nirthfurzahad:
nirthfurzahad

Adobe анонсируют GPU поддержку в Flash с 2007ого года, в 2008ом она начала то появлятся, то исчезать. Предлагаю делать ставки, насколько рабочая реализация будет на этот раз ^_^?

@PoZitron:
PoZitron

Под конец поста на Хабре про встраивание интелом графического процессора в центральный процессор, я прочёл мнение NVidia на этот счёт, и меня замкнуло. Дело в том, что передо мной вдруг предстал расклад вида "щука, лебедь, рак": Интел хочет вставить графический процессор в центральный процессор, тем самым заявляя что видеокарты более не нужны. Нвидиа хочет воткнуть все вычисления в мощные графические чипы, при этом делая из центрального процессора какой то своей "контроллер" на "подхвате". До смешного доходит, на видеокартах Nvidia Tesla, нет видео-выхода вообще :)
Кто же победит?
Каждый тянет одеяло на себя, но если подумать, то никто не может стать абсолютным победителем. Представьте себе любую современную игру, на графическом чипе, впихнутым в процессор. По-моему этот вариант не подходит для геймеров, а значит не подходит большинству. Представьте теперь что у вас мощный процессор, но видеокартой можно "добивать" производительность, и очень даже прилично. И что, вы будете покупать материнскую плату с четырьмя-восемью PCI-E слотами? И все эти слоты заполнять видеокартами тыщ по 10-20 каждая? БП на 3000 Ватт покупать? Зато зимой обогреватель не нужен.
Из этого всего, получается что меньше всего им нужен сегмент обычных персональных компьютеров. Даже не хотят они его видеть, на обычные ПК они точно не полезут.
Далее я вижу 2 сегмента, где они друг с другом не пересекаются: "офисы" для Интел, "серверы" Нвидии. Тут всё понятно: интел впихнёт в процессор то, что будет выдавать хоть какую то картинку. Нвидиа даст серверам очередные мощные "нагревательные элементы".
И вот, самое интересное — ноутбуки/нетбуки. Что будет делать интел? Очевидно же: есть процессор, в нём выводилка графики, как и в случае с офисом — лишь бы выводила. Вопрос напротив производительных ноутов — их всё равно не устроить такой уровень.
Нвидиа даст полноценную графику... но умеющую лишь что то там ускорять (кодирование/декодирование видео и аудио, флеш, отрисовку графики например в браузерах, и в будущем вычисления типа фотошопа и компиляторов). В реальности же, пыхтеть будет основной процессор, а мощности видеокарты простаивать.
Итого: интел предоставляет нам более дешёвое решение, оттого и ограниченное. Нвидиа балует своей быстрой графикой, видео и некоторыми специфическими вычислениями, но по-прежнему занимает место, жрёт энергию, деньги и простаивает чаще чем работает.
Так кто победит?

@norguhtar:
norguhtar

Я в свое время писал про использование GPU для роутинга.
Одни товарищи пошли дальше теории. Они сделали маршрутизатор
использующий GPU shader.kaist.edu

@DeeZ:
DeeZ

Все больше появляется задач, нагружающих видеокарту вместо процессора. В результате смотришь ты ютуб, загрузка проца 5-10%, а батарейка у бука высаживается за час! Кто первый сделает график-диспетчер загруки GPU? Когда он появится в виндовом таскменеджере?
И когда начнется оптимизация загрузки GPU тоже? а то сейчас же юзер не видит что происходит на видяхе.

Или уже есть такие диспетчеры?

@PoZitron:
PoZitron

Уже 6 дней как внезапно вышла новая версия VLC. Я обрадовался что там наконец то есть поддержка ускорения видеокартой и поставил из PPA, не дожидаясь когда он появится в репозиториях. Потом вчитался, и понял что речь идёт о VAAPI, а не VDPAU. Блин. Fail для меня. VAAPI по-моему у AMD и Intel.
Ну ладно, решил зато родителям поставить более новую версию, там написано что и для винды тоже ускорение GPU в этой версии, а у них видеокарта ATI (ну да, такая старая что тогда ещё ATI, а не AMD). Уже после того как поставил и попарился с разными выводами, заметил что только для Висты и 7. Опять fail.
Не смотря на это, обновили сайт, написали кучу изменений, в каждом из которых обязательно про офигенный прирост производительности вот именно в этой версии :) По-любому :) Уж не знаю что на них нашло, но везде пишут офигенный прирост скорости. Я пока не могу сказать, есть он или нет. В любом случае без VDPAU плохо.