Помощь - Поиск - Пользователи - Календарь
Полная версия: О видюхах и драйверах
Форум студии Seaward.Ru > Разное > Таверна > Хард, софт
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24
dshad
Может фейк, но очень похоже на правду, тут недавно высказывались про незначительность изменений в 6-ой линейке карт от ATI, похоже и точно изменения будут незначительны и революции не будет.
http://www.overclockers.ru/hardnews/38462/...on_HD_6870.html
----
Microsoft выпустила интересное обновление:
Цитата
Доступно обновление для Windows 7 и Windows Server 2008 R2, который предоставляет новые функциональные возможности и улучшения производительности для графической платформы

http://support.microsoft.com/kb/2028560
----
AMD попрощается c ATI в следующем поколении карт Radeon

Ешё немного о HD 6000
lllypuK
К слову о Palit Sonic Platinum http://www.3dnews.ru/video/palit-geforce-gtx-460-sonic-1gb/
dshad
Похоже нас ожидает довольно таки длительный период изощрённого "тюнинга" от разных производителей как тех железок, что уже есть в наличии, так и тех, что могут вскоре появиться на рынке, так как особых революций вроде бы как не ожидается в ближайшем обозримом будущем. Это может быть очень интересно понаблюдать, что же они смогут выдать на рынок, и кто вырвется вперёд, или всё относительно и явных лидеров тут не будет?
Luz
в связи стем что сдох старый толстый 17 дюймовый LG было принято решение закупить новый монитор...

из-за ограничений в средствах (10к) на отличный Самсунг 24дюймов с откликом 2мс денег не хватило (он стоил ажно 14,5к), обидно, но пришлось устремлять взор на мониторы других марок (монитор диагональю 21,5 решительно не хотелось, посему Самсунг 21,5 с откликом 2мс за 9,8к сразу уступил место крупным моделям), рассматривал понятное дело только с диодной подсветкой

вобщем после долгих раздумий взял BenQ 24дюймовый (9,4к), 5мс, динамическая контрастность 10Миллионов : 1, подключил по HDMI как и положено, установил драйвер. выбрал режим sRGB (16~235), т.к. остальные режимы (фото, видео, игры) делали все слишком ярким и невмеру красочным (очень дико все получалось). есть еще режим Стандарт, примечателен своей гибкостью, настроить можно решительно все, от непосредственно цветовых составляющих (красный, синий, зеленый) до яркость, констрастности и четкости. но режим sRGB все равно кажет намного более реальные цвета, анализ был проведен на основе снимков сделаных чудесной камерой Sony HX-1 (не зеркалка, но рисует неплохо, а еще снимает видосы в 1440*1080 и битрейтом ~12000 кбит/с)

пруфпик: http://twitpic.com/2l4zmm (не ругайте за качество фотографии, было вечером, света мало, поэтому получилось неочень)

так вот о чем я все это: старушка 9800GTX оказывается еще может, Мафия II при 1920*1080 и полных настройках (16х фильтрация, антианалайзинг и все текстуры и тени на высоком) кажет при 25-20 фпс чего мне лично для игры более чем достаточно ; при включении PhysX на "высоко" фпс падает до 15-20, это уже не очень комфортно, поэтому было принято решение отказать от бетонной крошки, щепок и развивающихся плащей

отсюда вопрос: смысл покупать новую видеокарту, если старая работает хорошо на игре, которая вышла около месяца назад? я вижу только один ответ: ради увеличенного количества ядер CUDA чтобы кодирование видео и другие процессу проходили быстрее при использовании видеокарты
ALexusB
у меня все тоже в М2, но на 8800гт (она же 9800гт без изменений) и в 1680х1050
Но мне было 25фпс, потому был Антиалья х4 и 40фпс
Со средним физиХ 15-20фпс

и это не ГТХ карта.
А имея 9800гтх, можно еще долго не парится, пока все игры не будут ДХ11, а это будет лет через 5, когда хбох360 умрет, а до того ДХ9 будет ВСЕГДА, а это значит карты 7800гтх и старше будут тянуть
Luz
моя еще и ДХ10 тянет, и в каких то играх я даже это тестировал, красиво (там в меню еще можно переключать какой директикс использовать)

з.ы. но GTX 460 хочется =) наверное только через год
ALexusB
http://www.3dnews.ru/news/nvidia-snizit-ts...eforce-gtx-460/
NVIDIA снизит цены на GeForce GTX 460 на 30$
Есть шанс, что до нас дойдет, тк по схеме дистрибьюторов (больших) есть возврат дельты от поставщика, при снижении прайса. И продавец не в накладе.

А цена за карту аналог ати 5850 в 7500р против 10000р оч. гут
МОлЬ
Интересная темка с 2 ядерной моей видюхой.
Как показала практика, оч. даже не все игрушк понимают что это 1 карта и у нее 2 ядра по гигу))) Впринципе в сист. устройсвах виндов она отражается как 2 карточки гиговые.
Так вот например ГТА 4 вполе себе понимает, что на борту 2 гига видео, что использует в своих корыстных целях)))
А вот например масс эффект и масс эффект 2, при сборе инфы по конфе видят только 1 карточку с 1 гигом, причем поправить это никак не получается. Нихотят они видеть второе ядро. Вот такая вот эпидерсия)))
ALexusB
По идее такая двойная карта для драйверов = 2 карты со всеми вытекающими.
То есть это спайка на 1 плату и в один слот.
Не знаю, как с Жфорсами - наверное так же, можно 1 чип в Нвиди панели отключать вообще.
Игра по идее может неверно определять железку, но работает через драйвер, то есть полностью.
Другое дело, если неверное определение ОЗУ запрещает ставить настройку загрузки в это ОЗУ до упора.
Luz
ну в таком случае только сильнее убеждаешься что навернео поддержка подобного crossfire в драйвере реализовано лучше чем спаяная видеокарта? или одинаково?
просто если в crossfire режиме на топовых материнках выдается по 16 линий на каждый PCIexpress слот, то тут всего 16 линий на оба чипа?
ALexusB
Да, и частоты у них по идее занижены (или блоки отключены). То есть эти "пирожки" идейная реализация некондиционных чипов smile.gif
Всем приятно - тебе две карты по цене почти одной, им очистка склада.
Просто имея две дырки под слоты, можно было собрать 4х чиповую в-карту.
Это сча есть матери по 3-4 слота, где можно независимые втыкать.
navy
На самом деле там шина между чипами шире, а общается карта по общей.. и в режиме работы обоих чипов производительность выше чем у SLI, кроссфаер, плюс стабильность выше.
ALexusB
Тоды "ой".
А может есть каике обзоры сравнения таких карт с СЛИ, чтоб точно разобраться?
Тк цена на них явно ниже двух независимых на тех же чипах. Только ли маркетинг роляет
Sonik
Есть ли смысл покупать двухпроцессорный графический монстр NVIDIA GTX295?
http://www.ixbt.com/video3/gt200-6-part1.shtml

Из русскоязычного ближе к теме обсуждения больше никто не приближался на моей памяти. Из собственного опыта работы с железом считаю вышеуказанный тест не совсем адекватным, ибо GTX280 является полноценной видеокартой с компонентами, выручающими дополнительную производительность благодаря более высоким частотам, а в SLI этот тандем в любом случае будет быстрее "бутерброда" gtx295, где нужно было все сделать компактным и менее нагревающимся. Впрочем, в выводе (с которым я солидарен) авторы статьи это все же отметили, но, к сожалению, не учитывали во время обзора. Все на самом деле упирается в ПО и дрова.

А вообще я сторонник одночипов, использования систем без SLI и лишних разъемов PCI-E x16 на борту материнских плат (лучше купить дорогостоящую системную плату с чипсетом, не поддерживающим SLI, чем дешевую материнку с мощным чипсетом, поддерживающим SLI и еще миллион маркетинговых решений). Для десктопов сейчас представлены достаточно интересные решения в производительном сегменте - у AMD это Radeon HD 5870, выдающая 32 средних fps в Сrysis при сглаживании и разрешении 1920x1200 в режиме Very High; у NVIDIA - GeForce GTX 480, выдающая ]31 средний fps в Сrysis при сглаживании и разрешении 1920x1200 в режиме Very High. Этого вполне достаточно для всех существующих компьютерных игр, из которых на таких "жучках" будут тормозить лишь ArmA II и еще парочка не оптимизированных проектов.
navy
Вот пара линков.. можно покопаться там по обзорам и лаборатории.. Вообще оверклокерс хороший ресурс именно в плане замеров smile.gif
http://www.overclockers.ru/lab/34464_2/Nav..._GTX_295.html#9
http://www.overclockers.ru/lab/38377/Antol...1536_Mbajt.html
ALexusB
Из этих трех статей вывод такой - что мои домыслы - это суровая реальность.
SLI двух полноценных карт круче "пирожка", который такие делается из более ограниченных чипов (не будем называть их некондицией smile.gif)
Исключения - это только сырость драйверов.
Но в целом, "пирожок" - хорошее решение, по низкой цене (сравнительно с двумя топ картами), имеет хорошую производительность.
Но БП должен быть на две карты, тк потребление высокое.
delfin_
Цитата(ALexusB @ Sep 16 2010, 12:01) *

SLI двух полноценных карт круче "пирожка", который такие делается из более ограниченных чипов (не будем называть их некондицией smile.gif)

А еще круче, это СЛИ или кросс из двух "пирожков". smile.gif
По моему все логично. Соотношение цена-качество(производительность) сохраняется. Хочешь что то лучше - плати больше. Таки я больше склоняюсь к пирожку, т.к. покупая кросс, надо брать и мамку по дороже, с двумя дырками под видео, что еще поднимает цену кросса.
Luz
Цитата(navy)
Да куда это вообще не технология.. .Она умрет скоро и это признают все эксперты. Ни одна технология (кстати Нвидия на это уже наступала не раз) не сможет жить долго при поддержки единственной компании. А так как это экслюзивчик, то выводы сделать не сложно.

какие эксперты, просвети пожалуйста? на что нвидиа наступала не раз? вот эта статья наглядно говорит, что уже даже такие монстры как IBM используют технологии нвидиа (в том числе CUDA) на платформе TESLA - http://blogs.nvidia.com/ntersect/2010/09/t...-the-cloud.html
navy
Цитата
какие эксперты, просвети пожалуйста? на что нвидиа наступала не раз? вот эта статья наглядно говорит, что уже даже такие монстры как IBM используют технологии нвидиа (в том числе CUDA) на платформе TESLA - http://blogs.nvidia.com/ntersect/2010/09/t...-the-cloud.html

Ога, на сайте нвиди, да еще и без рекламы? О_о Забиваем в поиск куда, и радуемся ссылкам на нвидия да и на пару ссылок на вузы. все. Крутые перспективы, да.
Цитата
Из этих трех статей вывод такой - что мои домыслы - это суровая реальность.

Не совсем. Смотрим разрыв между сли и дуал-чип.. он минимален, а цена ниже, и стабильность тоже выше. это неоднократно проверялось.. т.к. в этом режиме не драйвера рулят
Luz
Цитата(navy @ Sep 16 2010, 22:59) *
Забиваем в поиск куда

и видим статью в вики, где перечислены программы, которые уже поддерживают технологию (виноват - в статье на вики нету, на сайте есть)

з.ы. кстати на вопросы ты мне не ответил
ALexusB
Широкое распространение технологий - это наличие и использование этой технологии большинством.
Если есть 2-3 потребителя - то они энтузиасты. Хотя и могут быть мегазаказчиками и делать долю дохода поставщику этой технологии.

Например, военные США закупили 22000 Плайстайшн-3, что бы на них собрать кластер, тк это было дешевле аналогичного набора серверов.

http://ru.wikipedia.org/wiki/CUDA

С 2007г технолигия не попала на компьютеры обывателя (путем применения ее в бытовых программах - играх).
Значит охвата нет, спроса на использование нет.
Знаю только единичный (может примеров больше, но не на слуху) случай использования вычислимой мощности карт GF - это подбор паролей перебором smile.gif
Разница CPU vs GPU - в несколько раз (три дня против дня)

Но процессоры шагнули дальше и, если в 2007г какие-то GPU были даже мощнее CPU на локалах, то сейчас паритет восстановлен.

Практическое широкое использование может быть названо - это ФизиХ, если он на CUDA, то вот и применение. Но там Нвидей был куплен спец чип, поэтому сомнительно, у ФизиХ свой обработчик на уровне чипа скорее всего.
navy
Цитата
какие эксперты, просвети пожалуйста?

лень искать, почитай подшивку обзоров на оверклокерс например.
Цитата
на что нвидиа наступала не раз?

на свои нововведения которые никто не поддержал. яркий пример их гибкий конвеер и физикс... да, оно еще живет. но сколько протянет неизвестно, т.к. это только часть рынка, а другие живут без этого и даже в ус не дуют
Luz
быть может протянет и не долго, но я пользуюсь этим в данный момент и вижу ощутимую разницу в производительности и ощутимый сброс нагрузки на CPU, что позволяет параллельно использовать компьютер в других целях
ALexusB
Еще мысль, как довод востребованности\невостребованности:

А процы новых ядер меж тем идут со встроенной в-картой на уровне, даже не чипа, а проца... то есть будут системы без в-карт вообще. Соотв, сервеные решения, где лишние кулеры и нагревательные приборы в корпусе зло, будут прекрасно обходиться процами из многих ядер.
А это уже массовый рынок бизнес приложений. То есть в требованиях какой-нть ERP системы не будет наличие на сервере или клиентских местах в-карты с CUDA

Стоимость GPU для вычислений на данный момент выше стоимости доп ядра (в условных ценах) CPU

Вот выжимать для домашнего компа все из всех процов, что на нем есть - это да, перспективно.
Например, кодирование видео может быть CPU+GPU и будет быстрее.
Но где такие проги для дома?
Luz
а ERP-системы это одно, а всякие НИИ, авто и аваиа концерны палюбому остановятся на TESLA системах с поддержкой CUDA
Цитата
Стоимость GPU для вычислений на данный момент выше стоимости доп ядра (в условных ценах) CPU

но опять же для домашнего компа, все равно же покупаем видеокарты, поэтому очевидный перевес nvidia именно в этом, повторюсь может быть лишь для меня
navy
Цитата
но опять же для домашнего компа, все равно же покупаем видеокарты, поэтому очевидный перевес nvidia именно в этом, повторюсь может быть лишь для меня

Вот в этом и суть, что таких людей не много. Никто ж не отрицает что это плюс smile.gif Мы говорим о будущем.
Luz
как по заказу в новом ЛКИ вышла статья про CUDA, ну стоит зачитать, еще одно видение этой технологии
Цитата
Куда ведет CUDA: практическое применение технологии GPGPU
Евгений Лебеденко

Новая технология — как вновь возникший эволюционный вид. Странное создание, непохожее на многочисленных старожилов. Местами неуклюжее, местами смешное. И поначалу его новые качества кажутся ну никак не подходящими для этого обжитого и стабильного мира.

Однако проходит немного времени, и оказывается, что новичок бегает быстрее, прыгает выше и вообще сильнее. И мух он лопает больше его соседей-ретроградов. И вот тогда эти самые соседи начинают понимать, что ссориться с этим бывшим неуклюжим не стоит. Лучше с ним дружить, а еще лучше организовать симбиоз. Глядишь, и мух перепадет побольше.


Технология GPGPU (General-Purpose Graphics Processing Units — графический процессор общего назначения) долгое время существовала только в теоретических выкладках мозговитых академиков. А как иначе? Предложить кардинально изменить сложившийся за десятилетия вычислительный процесс, доверив расчет его параллельных веток видеокарте, — на это только теоретики и способны.

Но долго пылиться на страницах университетских журналов технология GPGPU не собиралась. Распушив перья своих лучших качеств, она привлекла к себе внимание производителей. Так на свет появилась CUDA — реализация GPGPU на графических процессорах GeForce производства компании nVidia.

Благодаря CUDA технологии GPGPU стали мейнстримом. И ныне только самый недальновидный и покрытый толстым слоем лени разработчик систем программирования не заявляет о поддержке своим продуктом CUDA. IT-издания почли за честь изложить подробности технологии в многочисленных пухлых научно-популярных статьях, а конкуренты срочно уселись за лекала и кросскомпиляторы, чтобы разработать нечто подобное.

Публичное признание — это мечта не только начинающих старлеток, но и вновь зародившихся технологий. И CUDA повезло. Она на слуху, о ней говорят и пишут.

Вот только пишут так, словно продолжают обсуждать GPGPU в толстых научных журналах. Забрасывают читателя грудой терминов типа «grid», «SIMD», «warp», «хост», «текстурная и константная память». Погружают его по самую маковку в схемы организации графических процессоров nVidia, ведут извилистыми тропами параллельных алгоритмов и (самый сильный ход) показывают длинные листинги кода на языке Си. В результате получается, что на входе статьи мы имеем свежего и горящего желанием понять CUDA читателя, а на выходе — того же читателя, но с распухшей головой, заполненной кашей из фактов, схем, кода, алгоритмов и терминов.

А между тем цель любой технологии — сделать нашу жизнь проще. И CUDA прекрасно с этим справляется. Результаты ее работы — именно это убедит любого скептика лучше сотни схем и алгоритмов.

Логотип технологии CUDA напоминает о том, что выросла она в недрах 3D-графики.

Далеко не везде

И все же прежде, чем взглянуть на результаты трудов CUDA на поприще облегчения жизни рядового пользователя, стоит уяснить все ее ограничения. Точно как с джинном: любое желание, но одно. У CUDA тоже есть свои ахиллесовы пятки. Одна из них — ограничения платформ, на которых она может трудиться.

Перечень видеокарт производства nVidia, поддерживающих CUDA, представлен в специальном списке, именуемом CUDA Enabled Products. Список весьма внушительный, но легко классифицируемый. В поддержке CUDA не отказывают:

1. Модели nVidia GeForce 8-й, 9-й, 100-й, 200-й и 400-й серий с минимумом 256 мегабайт видеопамяти на борту. Поддержка распространяется как на карты для настольных систем, так и на мобильные решения.

2. Подавляющее большинство настольных и мобильных видеокарт nVidia Quadro.

3. Все решения нетбучного ряда nvidia ION.

4. Высокопроизводительные HPC (High Performance Computing) и суперкомпьютерные решения nVidia Tesla, используемые как для персональных вычислений, так и для организации масштабируемых кластерных систем.


CUDA поддерживается высокопроизводительными суперкомпьютерами nVidia Tesla.
Поэтому, прежде чем применять программные продукты на базе CUDA, стоит свериться с этим списком избранных.

Кроме самой видеокарты, для поддержки CUDA требуется соответствующий драйвер. Именно он является связующим звеном между центральным и графическим процессором, выполняя роль своеобразного программного интерфейса для доступа кода и данных программы к многоядерной сокровищнице GPU. Чтобы наверняка не ошибиться, nVidia рекомендует посетить страничку драйверов и получить наиболее свежую версию.

...но сам процесс
Как работает CUDA? Как объяснить сложный процесс параллельных вычислений на особой аппаратной архитектуре GPU так, чтобы не погрузить читателя в пучину специфических терминов?

Можно попытаться это сделать, представив, как центральный процессор выполняет программу в симбиозе с процессором графическим.

Архитектурно центральный процессор (CPU) и его графический собрат (GPU) устроены по-разному. Если проводить аналогию с миром автопрома, то CPU — универсал, из тех, которые называют «сарай». Выглядит легковым авто, но при этом (с точки зрения разработчиков) «и швец, и жнец, и на дуде игрец». Выполняет роль маленького грузовика, автобуса и гипертрофированного хечбэка одновременно. Универсал, короче. Цилиндров-ядер у него немного, но они «тянут» практически любые задачи, а внушительная кэш-память способна разместить кучу данных.

А вот GPU — это спорткар. Функция одна: доставить пилота на финиш как можно быстрее. Поэтому никакой большой памяти-багажника, никаких лишних посадочных мест. Зато цилиндров-ядер в сотни раз больше, чем у CPU.

В отличие от центрального процессора, способного решать любую задачу, в том числе и графическую, но с усредненной производительностью, графический процессор адаптирован на высокоскоростное решение одной задачи: превращение куч полигонов на входе в кучу пикселов на выходе. Причем задачу эту можно решать параллельно на сотнях относительно простых вычислительных ядер в составе GPU.

Так какой же может быть тандем из универсала и спорткара? Работа CUDA происходит примерно так: программа выполняется на CPU до тех пор, пока в ней появляется участок кода, который можно выполнить параллельно. Тогда, вместо того, чтобы он медленно выполнялся на двух (да пусть даже и восьми) ядрах самого крутого CPU, его передают на сотни ядер GPU. При этом время выполнения этого участка сокращается в разы, а значит, сокращается и время выполнения всей программы.

Технологически для программиста ничего не меняется. Код CUDA-программ пишется на языке Си. Точнее, на особом его диалекте «С with streams» (Си с потоками). Разработанное в Стэнфорде, это расширение языка Си получило название Brook. В качестве интерфейса, передающего Brook-код на GPU, выступает драйвер видеокарты, поддерживающей CUDA. Он организует весь процесс обработки этого участка программы так, что для программиста GPU выглядит как сопроцессор CPU. Очень похоже на использование математического сопроцессора на заре персональных компьютеров. С появлением Brook, видеокарт с поддержкой CUDA и драйверов для них любой программист стал способен в своих программах обращаться к GPU. А ведь раньше этим шаманством владел узкий круг избранных, годами оттачивающих технику программирования под графические движки DirectX или OpenGL.


Благодаря CUDA разработчикам программ GPGPU не требуется вникать в сложности программирования под такие графические движки, как DirectX и OpenGL
В бочку этого пафосного меда — дифирамбов CUDA — стоит положить ложку дегтя, то бишь ограничений. Далеко не любая задача, которую нужно запрограммировать, подходит для решения с помощью CUDA. Добиться ускорения решения рутинных офисных задач не получится, а вот доверить CUDA обсчет поведения тысячи однотипных бойцов в World of Warcraft — пожалуйста. Но это задача, высосанная из пальца. Рассмотрим же примеры того, что CUDA уже очень эффективно решает.

Труды праведные
CUDA — весьма прагматичная технология. Реализовав ее поддержку в своих видеокартах, компания nVidia весьма справедливо рассчитывала на то, что знамя CUDA будет подхвачено множеством энтузиастов как в университетской среде, так и в коммерции. Так и случилось. Проекты на базе CUDA живут и приносят пользу.

NVIDIA PhysX

Рекламируя очередной игровой шедевр, производители частенько напирают на его 3D-реалистичность. Но каким бы реальным ни был игровой 3D-мир, если элементарные законы физики, такие как тяготение, трение, гидродинамика, будут реализованы неправильно, фальшь почувствуется моментально.

Реализовать алгоритмы компьютерной симуляции базовых физических законов — дело очень трудоемкое. Наиболее известными компаниями на этом поприще являются ирландская компания Havok с ее межплатформенным физическим Havok Physics и калифорнийская Ageia — прародитель первого в мире физического процессора (PPU — Physics Processing Unit) и соответствующего физического движка PhysX. Первая из них, хотя и приобретена компанией Intel, активно трудится сейчас на поприще оптимизации движка Havok для видеокарт ATI и процессоров AMD. А вот Ageia с ее движком PhysX стала частью nVidia. При этом nVidia решила достаточно сложную задачу адаптации PhysX под технологию CUDA.

Возможным это стало благодаря статистике. Статистически было доказано, что, какой бы сложный рендеринг ни выполнял GPU, часть его ядер все равно простаивает. Именно на этих ядрах и работает движок PhysX.

Одна из возможностей физического движка NVIDIA PhysX — реалистичная работа с тканями.
Благодаря CUDA львиная доля вычислений, связанных с физикой игрового мира, стала выполняться на видеокарте. Освободившаяся мощь центрального процессора была брошена на решение других задач геймплея. Результат не заставил себя ждать. По оценкам экспертов, прирост производительности игрового процесса с PhysX, работающем, на CUDA возрос минимум на порядок. Выросло и правдоподобие реализации физических законов. CUDA берет на себя рутинный расчет реализации трения, тяготения и прочих привычных нам вещей для многомерных объектов. Теперь не только герои и их техника идеально вписываются в законы привычного нам физического мира, но и пыль, туман, взрывная волна, пламя и вода.

CUDA-версия пакета сжатия текстур NVIDIA Texture Tools 2

Нравятся реалистичные объекты в современных играх? Стоит сказать спасибо разработчикам текстур. Но чем больше реальности в текстуре, тем больше ее объем. Тем больше она занимает драгоценной памяти. Чтобы этого избежать, текстуры предварительно сжимают и динамически распаковывают по мере надобности. А сжатие и распаковка — это сплошные вычисления. Для работы с текстурами nVidia выпустила пакет NVIDIA Texture Tools. Он поддерживает эффективное сжатие и распаковку текстур стандарта DirectX (так называемый ВЧЕ-формат). Вторая версия этого пакета может похвастаться поддержкой алгоритмов сжатия BC4 и BC5, реализованных в технологии DirectX 11. Но главное то, что в NVIDIA Texture Tools 2 реализована поддержка CUDA. По оценке nVidia, это дает 12-кратный прирост производительности в задачах сжатия и распаковки текстур. А это значит, что фреймы игрового процесса будут грузиться быстрее и радовать игрока своей реалистичностью.

Пакет NVIDIA Texture Tools 2 заточен под работу с CUDA. Прирост производительности при сжатии и распаковке текстур налицо.

Обработка видеопотока в реальном времени

Как ни крути, а нынешний мир, с точки зрения соглядатайства, куда ближе к миру оруэлловского Большого Брата, чем кажется. Пристальные взгляды видеокамер ощущают на себе и водители авто, и посетители общественных мест.

Полноводные реки видеоинформации стекаются в центры ее обработки и... наталкиваются на узкое звено — человека. Именно он в большинстве случаев — последняя инстанция, следящая за видеомиром. Причем инстанция не самая эффективная. Моргает, отвлекается и норовит уснуть.

Благодаря CUDA появилась возможность реализации алгоритмов одновременного слежения за множеством объектов в видеопотоке. При этом процесс происходит в реальном масштабе времени, а видео является полноценным 30 fps. По сравнению с реализацией такого алгоритма на современных многоядерных CPU CUDA дает двух-, трехкратный прирост производительности, а это, согласитесь, немало.

Использование CUDA позволяет существенно повысить эффективность видеослежки.

Конвертирование видео, фильтрация аудио

Приятно посмотреть новинку видеопроката в FullHD-качестве и на большом экране. Но большой экран не возьмешь с собой в дорогу, а видеокодек FullHD будет икать на маломощном процессоре мобильного гаджета. На помощь приходит конвертирование. Но большинство тех, кто с ним сталкивался на практике, сетуют на длительное время конвертации. Оно и понятно, процесс рутинный, пригодный к распараллеливанию, и его выполнение на CPU не очень оптимально.

А вот CUDA с ним справляется на ура. Первая ласточка — конвертер Badaboom от компании Elevental. Разработчики Badaboom, выбрав CUDA, не просчитались. Тесты показывают, что стандартный полуторачасовый фильм на нем конвертируется в формат iPhone/iPod Touch менее чем за двадцать минут. И это при том, что при использовании только CPU этот процесс занимает больше часа.

Помогает CUDA и профессиональным меломанам. Любой из них полцарства отдаст за эффективный FIR-кроссовер — набор фильтров, разделяющих звуковой спектр на несколько полос. Процесс этот весьма трудоемкий и при большом объеме аудиоматериала заставляет звукорежиссера сходить на несколько часов «покурить». Реализация FIR-кроссовера на базе CUDA ускоряет его работу в сотни раз.

Видеоконвертер Badaboom — первая ласточка, использующая CUDA для ускорения конвертирования.

CUDA Future

Сделав технологию GPGPU реальностью, CUDA не собирается почивать на лаврах. Как это происходит повсеместно, в CUDA работает принцип рефлексии: теперь не только архитектура видеопроцессоров nVidia влияет на развитие версий CUDA SDK, а и сама технология CUDA заставляет nVidia пересматривать архитектуру своих чипов. Пример такой рефлексии — платформа nVidia ION. Ее вторая версия специально оптимизирована для решения CUDA-задач. А это означает, что даже в относительно недорогих аппаратных решениях потребители получат всю мощь и блестящие возможности CUDA.
ALexusB
Поучительная статья. Из нее ясно, что ФизиХ на КУДА считается не весь, а частично, тк задачи, решаемые КУДА узкие. Нужно еще подобрать.
Но вот бытовые видеообработки - это ок.
Сдерживающий факт для технологии - это доля рынка чипов на фоне АМД, в котором этого нет, а значит ПО должно уметь жить без КУДА тоже.
Luz
к слову сказать вышеупомянутый Badaboom без CUDA не работает...
navy
Это не плюс biggrin.gif
К слову, половина рынка не охвачена, и не будет.. А следовательно никто не будет затачивать что-то массовое на CUDA, а следовательно это так и останется фишкой, а не технологией
Luz
Цитата(navy @ Sep 18 2010, 18:02) *
К слову, половина рынка не охвачена, и не будет..

пруфлинк?
Luz
да я про то что "и не будет" =) надо дать время продаться GF100 и GF104 в конце года наверное будет виднее статистика, но может быть ты и прав насчет фичи для домашних компов и технологией для суперкомпьютерных систем построенных на GPU
navy
Цитата
да я про то что "и не будет" =)

вряд ли АМД будет это применять в своих видеокартах, а значит таки не будет smile.gif ибо войны производителей серьезная вещь
Faust
Тема про процессоры, а не про видеокарты. Если поставить на старую агп систему новую видеокарту, то можно насладиться набором картинок при запуске новой игры вместо графики. А стоят эти агп видеокарты не дешево.

Ещё пять копеек в тему о мошенничестве в таком глобальном масштабе. Вот на даче старый офлайновый комп, всё ставится из коробки, драйвера для видео и чипсета, винда хп не обновленная. Запускаешь на ней гта 3. И о чудо! Сколько в игре разных графических мелочей видно, пар из люков валит так сочно, тени прекрасные, разные свечения, как будто 4 шейдеры работают, хотя видеокарточка gfmx460 с 64 мегабайтами видеопамяти. А ведь я много новых игр прошел после гта 3, как же меня может удивить графически старая игра, вышедшая до этих новых игр? Сразу думаешь вот приеду домой переиграю в гта 3 ещё раз. Приезжаешь домой, запускаешь гта 3 на своём современном компе gts 250 с гигом видеопамяти и видишь совершенно облезлую графику, всё уровнено, никаких сочных теней, простая какая-то невзрачная картинка, это совсем не то что видел на даче, играть в это совсем не хочется.
Luz
я бы это связывал с че угодно кроме процессора, я бы даже в пыль на мониторе охотнее поверил
Faust
Дело в драйверах, которые оптимизируют для повышения производительности в новых играх, методом убавления качества картинки, грубо говоря, технически я в этом не шарю, только на глаз вижу.) В новых играх это еле заметно, но когда ставишь старую игру, на новом железе, все эти графические упрощения видны, графика совершенно убогая. В памяти запечатлена совсем другая картинка и качество графики, а глаза видят другое.)
Commandor_S
Цитата(Faust @ Sep 20 2010, 03:53) *

Тема про процессоры, а не про видеокарты. Если поставить на старую агп систему новую видеокарту, то можно насладиться набором картинок при запуске новой игры вместо графики. А стоят эти агп видеокарты не дешево.

Ещё пять копеек в тему о мошенничестве в таком глобальном масштабе. Вот на даче старый офлайновый комп, всё ставится из коробки, драйвера для видео и чипсета, винда хп не обновленная. Запускаешь на ней гта 3. И о чудо! Сколько в игре разных графических мелочей видно, пар из люков валит так сочно, тени прекрасные, разные свечения, как будто 4 шейдеры работают, хотя видеокарточка gfmx460 с 64 мегабайтами видеопамяти. А ведь я много новых игр прошел после гта 3, как же меня может удивить графически старая игра, вышедшая до этих новых игр? Сразу думаешь вот приеду домой переиграю в гта 3 ещё раз. Приезжаешь домой, запускаешь гта 3 на своём современном компе gts 250 с гигом видеопамяти и видишь совершенно облезлую графику, всё уровнено, никаких сочных теней, простая какая-то невзрачная картинка, это совсем не то что видел на даче, играть в это совсем не хочется.

На даче воздух, тишина, птички поют, а в городе? Пыль, грязь и смог. dry.gif Вот и мерещится всякое. lol.gif


З.Ы. Прошу пардону за оффтоп. 6.gif
ALexusB
У драйверов есть настройки ДХ в самой контрольной панели (настройки одинаковые для Нвиди и АТИ).
В теме игры Ризена это обсуждали со скриншотами - есть игры, где разница настройки ДХ текстур (Хай, кволити, перфоманс) давала разительную разницу при одинаковом ФПС.
То есть, в ризине на скринах у кого-то на щите был рисунок дерева, а у кого-то мутная хрень. На более крутом компе и в-карте.
То же с дальностью вида и текстурой под ногами.
Настройки игре - одинаковые.

Итого, мистика объяснима - если при одинаовых настройках старых игр, стоят разные настройки ДХ, то работают именно они.

Так же работает эффект монитора (старый CRT против ЖК на TNF) - на CRT все ярче, сочнее и тп, правильнее ресайз разрешения.
Можно проводить обратный тест - что нравится хорошее на ЖК открыть в новых красках на CRT и удивиться, чему был лишен все это время. Про ЖК разницу тут

Потому себе (любимому) я домой брал не TNF, а E-IPS монитор и сидел калибровал его рядом со старым CRT, чтоб переезда не заметить по цветам, а только радость от 22" вместо 17".
delfin_
Хыыы, и как мне это понять, если там должно быть 512? blink.gif
Изображение
delfin_
Цитата(ALexusB @ Sep 20 2010, 10:58) *

В теме игры Ризена это обсуждали со скриншотами - есть игры, где разница настройки ДХ текстур (Хай, кволити, перфоманс) давала разительную разницу при одинаковом ФПС.

Перелистал сейчас тему, чето не нашел этого, хотя помню что было. Можешь дать ссылку на страницу, или хотя бы номер страницы?
ALexusB
Это ОЗУ в-карты + кусок ОЗУ в реальной памяти, то есть шаред че-то там
Причем, как и где это настраивается я не нашел. И как отрубить тоже.
Причем, в Нвидиа панели и в Каталисах (старых версий) тоже.
Видимо, это сам ДХ мутит - и нужно твикеры какие искать под эту настройку.
ALexusB
нет smile.gif
Только скрин в памяти отпечатался - ГГ с щитом на спине два скрина с разными настройками ДХ.

Скрины могли пропасть, если были где-то на картинкообменах или потереться, как старые аттачи на форуме.
И еще (возможно) - хоть это была тема Ризена, но скрины и настройки были в другой теме (про в-карты smile.gif)
delfin_
Что ж тя так на холивары тянет? 1.gif Вот, вспомни что там было. smile.gif
Там ниже Алекс говорит про настройки в ДХ, токо в семерке я не нашел таких настроек. Видать тут токо панель нвидия будет ролять.
МОлЬ
Цитата(delfin_ @ Sep 20 2010, 15:11) *

Что ж тя так на холивары тянет? 1.gif Вот, вспомни что там было. smile.gif
Там ниже Алекс говорит про настройки в ДХ, токо в семерке я не нашел таких настроек. Видать тут токо панель нвидия будет ролять.

У радиков все то же в контрол центре. Так же выставляестя перфоманс или квалити.
Luz
это отображется часть файла подкачки, которая на данный момент свободна, я так понял что в вин7 он туда и видео память кидает
ALexusB
Цитата(Luz @ Sep 20 2010, 17:46) *

это отображется часть файла подкачки, которая на данный момент свободна, я так понял что в вин7 он туда и видео память кидает

У меня своп отключен, а там не ноль. Да и не оптимально это для в-карты свопить - вот в ОЗУ шариться - это да. на ноутах даже отметка есть, какая память, а то может у нее на борту и нет своей smile.gif
ALexusB
Не нашел я через панель Нвиди
Mipmap Detail Level
Там только качество фильтрации текстур есть, где выбор такой.
Это оно? И как эну настройку найти - в РиваТюне тоже не нашел.
delfin_
Цитата(ALexusB @ Sep 20 2010, 17:31) *

Не нашел я через панель Нвиди
Mipmap Detail Level

Драйвер какой? У себя я нашел причину, почему нету.
Цитата
You can't mipmap from CUDA. However, if enough people ask, NVIDIA will take the effort to expose it.


Похоже тема опять на "видео" меняется.
navy
у меня своп не отключен, думаю отключать только когда поставлю 8гб smile.gif и то не факт. Но реально свопится мало что... Только если очень много всего запущено ресурсоемкого.
Видеопамять не свопится как класс. Она работает вообще локально. Это такой кэш чипа. Он сам с ней работает. Все остальные доступа к ней не имеют.
Это текстовая версия — только основной контент. Для просмотра полной версии этой страницы, пожалуйста, нажмите сюда.
Invision Power Board © 2001-2025 Invision Power Services, Inc.