Как выбрать игровую видеокарту для компьютера

Google+

Игровая индустрия поражает нас из года в год. Даже такие приставки как Xbox и PlayStation 4 уже не могут должным образом обеспечить качественную картинку. Даже Microsoft и та порадовала (кого-то огорчила) своей новой операционной системой Windows 10. Вдобавок ко всему этому выход DirectX 12. Такой подход существенно изменит игровой мир в 2016 году. Ожидается выход вполне качественных игр, существенно снизится количество игр «на раз». Для полного счастья необходимо выбрать мощную видеокарту и наслаждаться прелестями игровых новинок.

В этом материале вас ожидает:

Процесс выбора видеокарты для компьютера. аналогичен выбору процессора. Существует несколько компаний производящих видеокарты, но мы остановимся лишь на двух: NVIDIA и AMD (ATI). История этих компаний, конкурирующих между собой, длится уже более двадцати лет. Пользователи давно разбились на два лагеря, а новичку стоит выбирать, чью пользу стоит сделать выбор? Необходимо подобрать оптимальную модель видеокарты, которая будет соответствовать целям использования, и конечно же бюджету. Как ни странно все просто, но под каждым подобным постом, возникают споры, которые доходят чуть ли не до войны двух команд. В этом материале мы попытаемся честно расставить планки для обоих производителей и ответить на самые распространенные вопросы по выбору видеокарты .

Во второй половине 2015 года, компании NVIDIA и AMD показали миру несколько видеокарт, исправив все текущие недостатки. В связи с таким большим количеством графических адаптеров, конкуренция на рынке существенно повысилась. Пользователю, которому безразличен бренд адаптера, на выбор доступно более 20 моделей видеокарт.

Когда необходимо менять видеокарту?

Ходит мнение, что современные видеокарты не прогрессируют и совсем не развиваются компаниями-производителями. Мы такое явно не поддерживаем. Сколько независимых экспертов из года в год подтверждают прирост центральных процессоров на 5-10 процентов. А что же тогда видеокарты? Рассмотрим два примера.

Новинки игр были оптимизированы под современную модель компьютера. Каждое новое поколение видеокарт, существенно превосходит по показателям своего предшественника.

Для сравнения возьмем модели GeForce GTX 750 Ti и GeForce GTX 480. Говоря о последней, достаточно сказать, что это флагман далекого 2010 года. Среди одночиповых видеокарт она, пожалуй, самая быстрая для тех времен. На прилавках она стояла с внушительным ценником — $500. Спустя 4 года в феврале месяце миру показали GeForce GTX 750 Ti. Это своего рода бюджетная видеокарта, которая сегодня стоит $100-120 за версию с 2 Гб памяти. По характеристикам они идентичны, но GeForce GTX 750 Ti менее энергозатратна. Разница от предшественника довольно ощутима — в 3,5 раза.

А как вам такое сравнение? Сентябрь 2016-го. Рынок потрясла линейка NVIDIA GeForce GTX 900, которая стала передовой (по крайней мере, пока готовился этот материал). В те времена даже GeForce GTX 970 существенно не превосходила по производительности видеокарту GeForce GTX 780.

Как только начали выходить новые игры, GeForce GTX 970 стали превосходить GeForce GTX 780. Например, в «Ведьмак 3» производительность 970-ой на 26 процентов выше. Как объясняется такая разница? Все очень просто. Разработчик игры оптимизировал игру под новую видеокарту, так как имеет тесное сотрудничество с компанией. Каждый по-своему относится к такому повороту от создателей игры, но факт налицо. Несправедливо, даже как-то!

В среднем видеокарта должна обновляться один раз в течение двух-трех лет.

Исходя из вышесказанного, можно сделать небольшой вывод: выбор видеокарты должен учитывать поддержку быстродействия в течение 2-3 лет. Следовательно, тем, кто пользуется моделями GeForce GTX 660-780, могут не менять видеокарту на модель GeForce GTX 900 или из линейки Radeon R9 300. Рекомендуется лучше подождать такие как Polaris или Pascal. Аналогичный совет можно дать владельцам ускорителей Radeon HD 7850-7970. А вот те кто использует более слабую архитектуру, стоит задуматься об апгрейде — оно того стоит!

Современная видеокарта — ее особенности

Выбирать видеокарту необходимо не только по показателю FPS в играх. Конечно производительность один из самых основных критериев для графического адаптера, о котором мы поговорим чуть позже. Сейчас же поговорим о таких функциях и технологиях компаний-производителей, которые заманивают пользователей на свою сторону.

Эргономичность и графика

В ноябре-декабре 2013 года, AMD показала Mantle — низкоуровневый, эксклюзивный API, в это же время были анонсированы линейки Radeon R7 и Radeon R9 200. Интерфейс Mantle схож с DirectX 12, т. е. программистам дается доступ к железу, чтобы оптимизировать код более качественно. Первая игра, выпущенная с Mantle, стал четвертый Battlefield. Затем стали выходить новые, такие как Dragon Age: Inquisition, Sid Meier’s Civilization: Beyond Earth и Thief. Честно говоря, API так себе, ведь превосходить по скорости «устаревший» DirectX 11 всего на 10 процентов — слабовато.

На этом разработки игр с Mantle закончились, не успев начаться. Одним словом — задумка обернулась неудачей. Согласитесь, что AMD самостоятельно очень трудно продвигать свой продукт в широкие круги пользователей. NVIDIA же твердо держится на DirectX 12. Ходили слухи, что Rise of the Tomb Raider и GTA 5 будут использовать API Mantle, но как видно на деле все выгорело. Так и у Star Wars: Battlefront со схожим с Battlefield 4 движком отсутствует поддержка этого API.

Если Mantle неудачное решение от AMD, то от Aegia NVIDIA, скорее всего стоит назвать технологию PhysX. Почему «неудачная» спросят многие? Да просто более современные физические модели поддерживаются только на видеокартах GeForce. NVIDIA завладела большей долей рынка видеокарт, хотя на официальном сайте можно насчитать лишь 38 проектов за 8 лет. Не густо — согласны?!

В минувшем году технология PhysX стала общедоступной с открытым исходным кодом, но даже это не спасло NVIDIA — мало кто из разработчиков игр решился на создание игры. Что в итоге? Провал!

Среди толковых решений у обеих компаний можно выделить технологии FreeSync у AMD и G-Sync у NVIDIA. Обе направлены на решение проблемы разрыва изображения на мониторе. Стоит отметить, что для этого нужно специальное оборудование. Говорить о синхронизации нет смысла, достаточно наглядно на видео отобразить обзор. Среди найденных нами — монитор AOC G2460PG.

Разработчиками видеокарт давно поставлена задача — воссоздать в компьютерной графике поведение волос человека, схожее с реальностью. Некоторые из вас, наверняка сразу вспомнят Nalu. На дворе 2016 год: AMD во всю использует PureHair (TressFX 3.0), а NVIDIA довольна технологией HairWorks. Упоминая о технологиях, стоит отметить, что HairWorks использовалась в таких играх как Far Cry и «Ведьмак 3: Дикая охота», а PureHair в Rise of the Tomb Raider. Одна и другая поддерживаются как для NVIDIA, так и для AMD, но работают совершенно по-разному для разных видеокарт, из-за особенностей оптимизации.

Пример работы технологии HairWorks (слева «Вкл» справа «Выкл»):

Пример работы технологии PureHair (слева «Вкл» справа «Выкл»):

У NVIDIA все технологии объединены в комплекс, который называется GameWorks. Стоит отметить интересные технологии MFAA (сглаживание) и DSR. Технология DSR чем-то напоминает Supersampling Anti-Aliasing (SSAA). Сначала увеличивается разрешение рендеринга специальным фильтром, а результат подстраивается под разрешение с меньшим показателем. В итоге для Full HD 1920×1080, мы имеем четырехкратный режим SSAA, который аналогичен игре в 4K 3840×2160. Несмотря на качество изображения, существенно возрастает нагрузка на видеокарту. Эта технология актуальна для старых игр, чтобы придать более привлекательную картинку.

Говоря о технологии MFAA, то тут все довольно просто. Работает аналогично популярному фильтру MSAA, но при этом затрат намного меньше. Такой способ сглаживания многократный, т. е. графический адаптер обрабатывает в одной клетке 2×2 (4-х кратная выборка) не 16 образцов, а в два раза меньше, так как остальная часть записана в буфере и чередуется в пространстве и времени.

Не будем забывать и про технологию TrueAudio, которая была представлена в 2014 году. Благодаря ей, звук на ПК становится намного лучше. При этом спустя 2 года после выпуска, она будет использоваться лишь в игре Thief. Странно!

Для современных производителей видеокарт, технологии PhysX, Mantle, реалистичные волосы, TrueAudio — не являются лекарством, а лишь своеобразным дополнением!

Конечно, эти технологии интересны для использования в играх, но рассматривать их как критерий для выбора видеокарты довольно-таки нецелесообразно. Можно назвать более важные показатели графических адаптеров, которые стоит учесть, а без HairWorks, PhysX и тем более Mantle можно и обойтись. Хотя выбор всегда за вами!

Прогресс в технологиях

Технологический прогресс видеокарт отмечается не только усовершенствованием таких технологий, как например DirectX 12. Вспомним 2015 год, когда AMD удивила мир тремя видеокартами с памятью High Bandwidth Memory (HBM). Многие современные компьютеры оснащены чипами GDDR5. AMD ответила выпуском HBM, которая менее энергозатратна и к тому же быстрее. Чипы на плате занимают намного меньше места, тем самым позволяя выпускать видеокарты небольших габаритов, но более мощные. Например, AMD Radeon R9 Nano.

Несмотря на все достоинства, эта разработка никак не продвигает линейку видеокарт AMD, а порой даже тормозит ее. Затронем эту тему немного позже в сравнении видеокарт GeForce и Radeon. Отсюда напрашивается вывод: опять же панацеей HBM назвать нельзя. Отныне такой вид памяти будет устанавливаться лишь в топовых моделях видеокарт NVIDIA и AMD.

HBM в плане производительности не только не продвигает AMD, но порой даже ограничивает в развитии.

Вся серия видеокарт GeForce GTX 900 поддерживает видеовыход HDMI 2.0, через который можно подключить телевизор 4K и получить картинку с частотой 60 Гц. Если в планах собрать HTPC, то такое оснащение очень даже кстати. Опять же в этом плане Radeon заметно уступает. Если вопрос в выборе видеокарты кроется в ревизии HDMI, то решение очевидно.

Разгон, охлаждение, потребление энергии и кастомизация

Российские пользователи редко при выборе видеокарты обращают внимание на показатель электропотребления. По их мнению, электроэнергия дешевая, а работа видеокарты на полную мощность лишь временна. Нельзя с этим не согласиться. Но все-таки, чем больше видеокарта потребляет электроэнергии, тем быстрее и сильнее нагревается, что приводит к более высокому показателю шума. Нельзя не отметить и оверклокерский потенциал. Простыми словами: чем больше ватт в характеристиках видеокарты, тем хуже остальные показатели.

Бюджетные и видеокарты среднего класса NVIDIA менее энергозатратны. Для таких моделей как GeForce GTX 750 и GeForce GTX 750 Ti дополнительное питание не нужно. Очень печально смотреть на сравнение видеокарт Radeon R9 390/390X с GeForce GTX 970. Их производительность примерно равна, а вот показатель энергопотребления составляет 2-х кратную разницу.

У бюджетных и видеокарт среднего класса NVIDIA показатель энергоэффективности выше, чем у моделей других производителей.

Чтобы система полноценно функционировала с одним процессором, современным графическим адаптером с одним чипом и двумя накопителями, ей достаточно блока питания, мощность которого 500-600 Вт. Если он качественный, то без проблем будут работать 290-ваттные видеокарты. Зачастую на видеокартах распаяны пины, необходимые для подключения кабеля блока питания.

Энергопотребление видеокарт при одинаковой производительности