Нвидиа gtx 560 ti. Полусинтетические и синтетические тесты: Final Fantasy XIV Official Benchmark. Полусинтетические и синтетические тесты: Unigine Heaven benchmark

GeForce GTX 560 Ti | Введение

Ещё в июле прошлого года редакторы THG предположили, что nVidia выключил один из потоковых процессоров (Streaming Multiprocessor) на GeForce GTX 460 с графическим процессором GF104, чтобы избежать вытеснения видеокарты GeForce GTX 465 с рынка. Разве не интересно было бы увидеть версию этого чипа со всеми восемью включёнными потоковыми процессорами? Мы имели в виду, что GeForce GTX 460 уже заняла достойное место среди видеокарт с 336 ядрами CUDA и 56 текстурными блоками. И, конечно же, полнофункциональная версия этого видеочипа может бросить вызов более дорогим (и менее привлекательным) видеокартам GeForce. Также это может быть угрозой для видеокарт Radeon серии HD 6800, rоторые вышли на три месяца позже.

Логично, что nVidia поступила именно так. У GeForce GTX 465 и без GF104 хватает конкурентов. Впрочем, эти видеокарты уже не производятся. Так же стоит напомнить, что nVidia хочет полностью прекратить выпуск видеокарт, основанных на процессоре GF100.

GeForce GTX 470 - единственная видеокарта, оставшаяся у компании, которая использует оригинальную архитектуру Fermi. Она заполнила пробел в линейке видеокарт nVidia со стоимостью в $259 как раз между GTX 460 за $200 и GTX 570 за $349. Это учитывая стартовую цену в 350 долларов. Удивительно, как здоровая конкуренция положительно сказывается на нас, любителей поиграть, не так ли?

nVidia прекращает выпуск GF100 менее чем через год после первого анонса. На смену ему приходит видеокарта GeForce GTX 560 Ti. Вместо того, чтобы использовать графическое ядро версии GF104, в GTX 560 применён более продвинутый чип с улучшениями на уровне базовых элементов, впервые применённый в GeForce GTX 580.

В результате графический процессор, содержащий чуть менее чем два миллиарда транзисторов (1.95 миллиарда, по данным nVidia) соответствует или даже превосходит производительность GF100 с тремя миллиардами транзисторов, реализованных в видеокарте GeForce GTX 470.

GeForce GTX 560 Ti | Как создать более быстрый игровой графический процессор

Как мы все знаем, GeForce 500-й серии почти не отличается по архитектуре от 400-й серии.

Видеокарты GeForce GTX 580 и GTX 570 построены на GF110 – переработанной GF100 с улучшенной фильтрацией текстур, эффективным Z-отсечением, оптимизацией на уровне транзисторов, которая способствует увеличению показателей при равном энергопотреблении.

Таким же образом видеокарта Geforce GTX 560 Ti основана на процессоре GF114 – переделанной версии GF104. Вспомните, что в GF104 уже включены улучшения фильтрации текстур, которые не попали в GF100. То есть пропускная способность 64-битных текселей FP16 удвоена с двух за такт до четырех за такт в каждом текстурном блоке. У GF104 и GF110 есть эти возможности, у GF100 их нет. Более того nVidia решила не переносить улучшения по Z-отсечению в GF114, а вместо этого оставить растровый движок без изменений.

В конечном счёте, GF114 функционально идентичен GF104. По факту nVidia даже указывает такое же количество транзисторов (1.95 миллиарда) и графический процессор производится по такому же 40 нм технологическому процессу TSMC.

Модифицированный процессор работает на более высоких тактовых частотах с меньшим энергопотреблением, что даёт более высокую производительность, но это всё равно улучшенная версия GF104. Конечно, главное отличие в том, что для создания видеокарты GTX 460 nVidia отключает у GF104 один из потоковых процессоров, а в GeForce GTX 560 Ti использует не "обрезанный" GF114. В сравнении с GTX 460 это означает больше тактов, больше ядер CUDA, и, теоретически, лучшую производительность в геометрии, благодаря восьми полиморфным движкам и восьми дополнительным текстурным блокам. Все эти факторы в совокупности создают видеокарту не только полностью заменяющую GeForce GTX 460, но и достаточно быструю, для того, чтобы затмить GeForce GTX 470.

GeForce GTX 560 Ti | Эти характеристики выглядят знакомыми

Если вы уже знакомы с GF104, то эта глава для вас будет чем-то вроде прошлогоднего учебника по GPU101. GF114 состоит из двух GPC (Graphics Processing Clusters), каждый с четырьмя потоковыми процессорами. Как вы уже знаете, все восемь потоковых процессоров полностью включены в GeForce GTX 560 Ti.


GF100/GF110 SM

GF104/GF114 SM

Ниже мы приведём небольшой отрывок из обзора GeForce GTX 460, немного изменив его:

"В GF114 используется 48 ядер CUDA на SM, вместо 32 ядер на SM, как в GF100. Обеспечение этих более сложных SM информацией требует более высокой пропускной способности инструкций, поэтому мы видим ещё одно улучшение: увеличение блоков диспетчеризации на каждый SM с двух в GF100 до четырех в GF114. Кроме того, каждый SM теперь имеет восемь текстурных блоков (вместо четырех).

Проще говоря – это более "широкий" GPU, чем GF100 и GF110. Результат – улучшенная производительность по сравнению с GF100 в наиболее популярных игровых приложениях.


GF114, реализованный в GeForce GTX 560 Ti

Внутри чип также немного отличается. Полный GF100 предлагает шесть независимых от GPC разделов растровых операций ROP, каждый из которых способен выводить восемь 32-х битных пикселей за такт (всего 48). Все шесть разделов связаны с 64-битной шиной памяти, что в сумме даёт шину в 384 бита. GF114 получает максимум из четырёх разделов, что даёт до 32 пикселей за такт и 256-битную шину".

GeForce GTX 560 Ti | Старые суффиксы, новые карты

Поскольку nVidia полностью включила GPU GF114, спецификации GeForce GTX 560 Ti полностью соответствуют графическому процессору. Благодаря 384 ядрам CUDA, получился GPU с большой производительностью шейдеров. Появляется 64 текстурных блока, благодаря 8 более широким SM. Их столько же, сколько и в GF110, однако, для поддержания такой же функциональности на флагманском GeForce GTX 580 требуется 16 SM. nVidia в состоянии обеспечить частоту GPU в 822 МГц, в то время как ядра CUDA работают на частоте 1644 МГц (соотношение 1:2 очевидно). Также как и GeForce GTX 460 1 Гбайт, видеокарта GeForce GTX 560 обладает четырьмя включенными разделами ROP, выдающими до 32 пикселей за такт. Четыре 64-битные шины составляют в сумме 256 бит. На видеокарте установлена видеопамять GDDR 5 объёмом 1 Гбайт с частотой 1002 МГц, что дает пропускную способность в 128.3 Гбайт/с.

Технические характеристики видеокарт GeForce GTX
GeForce GTX 560 Ti GeForce GTX 570 GeForce GTX 460 1 Гбайт GeForce GTX 470
Graphics Processing Clusters (GPCs) 2 4 2 4
Streaming Multiprocessors (SMs) 8 15 7 14
Ядра CUDA 384 480 336 448
Количество текстурных модулей 64 60 56 56
ROP блоки 32 40 32 40
Частота графического процессора, МГц 822 732 675 607
Частота шейдерных блоков, МГц 1644 1464 1350 1215
Частота памяти (скорость передачи данных) 1002 МГц (4008 MT/s) 950 МГц (3800 MT/s) 900 МГц (3600 MT/s) 837 МГц (3348 MT/s)
Объём видеопамяти GDDR 5, Гбайт 1 1.25 1 1.25
Шина видеопамяти, бит 256 320 256 320
Пропускная способность памяти, Гбайт/с 128.3 152 115.2 133.9
Скорость наложения текстур, млрд./сек. 52.6 43.9 37.8 34.0
Технологический процесс (TSMC), нм 40 40 40 40
Форм-фактор Двойной слот Двойной слот Двойной слот Двойной слот
Внешние интерфейсы 2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
Потребляемая мощность, Вт 170 219 160 215

Внешне GeForce GTX 560 Ti выглядит также, как и GeForce GTX 460. Обе карты используют осевые вентиляторы, направляющие поток воздуха на массивные алюминиевые радиаторы с медным основанием. Обе карты двухслотовые с одинаковым количеством выходов, включающих два двухканальных DVI-разъёма и один мини-HDMI порт. Кроме того, обе карты требуют внешнее питание и оснащены парой вспомогательных шестиканальных входов.


Однако есть несколько различий. Длина GeForce GTX 560 Ti – 23см, а GTX 460 – 21см. Под пластмассовым кожухом GTX 560 можно увидеть на одну тепловую трубку больше, что позволить рассеять большее количество тепла. Есть также металлическая пластина, закрывающая чипы памяти и схему питания видеокарты. Раньше эти компоненты просто оставались открытыми.

Конечно, сейчас мы говорим об эталонном дизайне. В лаборатории уже появилось несколько видеокарт GTX 560 от сторонних производителей, не соответствующих референсной версии от nVidia. Например, видеокарта Gigabyte имеет длину 24 см, два вентилятора, 6+1 фаз стабилизатора питания (против 3+1 в референсной версии) и совершенно другую печатную плату.

nVidia оснащает свою эталонную модель той же схемой контроля питания, что и на видеокарте GeForce GTX 580. Эта схема предотвращает перегрузки схемы регулирования напряжения. Компания говорит, что включать их в GeForce GTX 560 Ti или нет – это дело производителей видеокарты.

GeForce GTX 560 Ti | Ах да, об этом Ti…

В зависимости от вашего возраста, суффикс Ti от NVidia GeForce GTX 560 Ti может иметь, а может и не иметь смысл. История заключается в том, что ещё в 2002 году nVidia ограничила "ориентированные на производительность" видеокарты суффиксом Ti, а "бюджетные" видеокарты суффиксом MX. В линейке GeForce Ti было несколько различных моделей, большинство было основано на GPU NV25, но мы отчетливо помним, что GeForce 4 Ti 4200 являлся лидером. Если у вас всё в порядке с поиском в интернете, то вы даже сможете найти несколько наших обзоров этой карты 2002 года.

Как бы там ни было, nVidia возвращает суффикс Ti. Когда компания спросила нас, что мы думаем о названии этой карты, мы сначала немного опешили. "Мило, парни". Но если посмотреть внимательнее, то название имеет смысл. GF114 – это микросхема, которая сможет управлять любой видеокартой. И вместо того, чтобы начинать морочить потребителю голову цифровыми индексами (GTX 555, GTX 550, и так далее) мы предполагаем, что в скором времени сможем увидеть GeForce GTX SE, если nVidia представит менее производительную копию GF114.

Дифференциация по суффиксу не настолько выразительна, как уже принятая система исчисления. Если вспомнить времена GeForce 4, тогда менее дорогие видеокарты серии MX были сняты с производства из-за того, что плелись за самыми медленными видеокартами GeForce 3 по производительности. В наши дни производительность ещё не всё, есть много базовых функций, которые стоит принять во внимание. Но даже сейчас, есть возможность запутать неподкованного человека, который уделяет больше внимания играм, чем "железу", которое он покупает.

К счастью, мы не думаем, что nVidia пойдёт на эти хитрости, но GeForce GTX 460 и GF104 ещё свежи в памяти. Возможно, также как и в июле, видеокарты партнеров начнут просачиваться на рынок с всё более и более агрессивными частотами (и более высокими ценами). К тому времени, когда AMD запустил свой GPU на основе Barts, NVidia пришлось нелегко, уговаривая кого-нибудь протестировать разогнанные видеокарты от партнёров, чтобы сравнивать их с эталонными видеокартами от AMD. Возможно, более тщательное сегментирование линейки GeForce GTX 560 не вызовет повторение этой ситуации, которая внутри nVidia вызвала много негатива.

GeForce GTX 560 Ti | Производительность тесселяции



Учитывая особое внимание, которое AMD первоначально уделяло тесселяции в DirectX 11, а также внимание, которое nVidia уделяет тесселяции в DirectX 11 сейчас, нам захотелось пропустить видеокарты обоих производителей через самый тяжёлый тест, чтобы оценить влияние архитектуры на производительность в геометрии. Этим тестом должен был стать Unigine Heaven Demo, но теперь, когда стал доступен игровой тест HAWX 2, мы решили переключиться с искусственного теста на него.

Тестируя видеокарты nVidia было интересно наблюдать, как менялась частота кадров в зависимости от количества полиморфных движков в образцах. Мы обнаружили, что возможности архитектуры Fermi не обязательно масштабируется линейно, как могла бы предположить nVidia. Это проявляется в том, что GTX 570 с процессором GF110 использует пятнадцать полиморфных движков, GTX 560 – восемь движков, а разница при включении/выключении тесселяции в HAWX 2 всего один процент. Очевидно, что геометрия - не критический параметр.

Ситуация с AMD не намного яснее. Cayman получил второй блок тесселяции, в то время как Barts обходится только одним, но всё равно масштабируется лучше. Единственное, что можно утверждать, это то, что архитектура Cypress предлагает больше при включённой тесселяции. Отличный вариант на сегодня – это Radeon HD 5870, особенно если его удастся найти с большой скидкой. Но если всё больше разработчиков будут следовать примеру Ubisoft с игрой HAWX 2, широко использующей геометрию, то понадобиться больше производительности, чем на оптимизированных под геометрическую нагрузку видеокартах Radeon HD 6000 серии.

GeForce GTX 560 Ti | Аппаратное обеспечение и тесты

Конфигурация тестового стенда
Процессор Intel Core i7-2600K (Sandy Bridge) 3.4 ГГц, разогнанный до 4 ГГц (40х100 МГц), LGA 1155, 8 Мбайт кэш L3, Hyper-Threading enabled, Power-savings enabled
Материнская плата ASUS Maximus IV Extreme (LGA 1155) Intel P67, BIOS 0504
Оперативная память 8 Гбайт (4 x 2 Гбайт) Kingston DDR3-1333, KHX2000C8D3T1K3/6GX @ 8-8-8-24, 1.65 В
Жёсткий диск 160 Гбайт SATA 3 Гбит/с, Intel SSDSA2M160G2GC
Видеокарта GeForce GTX 560 Ti 1 Гбайт
GeForce GTX 570 1.25 Гбайт
GeForce GTX 460 1 Гбайт
GeForce GTX 470 1.25 Гбайт
Radeon HD 6950 2 Гбайт
Radeon HD 6870 1 Гбайт
Radeon HD 5870 1 Гбайт
Radeon HD 4870 X2 2 Гбайт
Блок питания Cooler Master UCP-1000 W

Программное обеспечение и драйверы
Операционная система Windows 7 Ultimate 64-бит
DirectX DirectX 11
Драйвер видеокарты AMD 8.82.2
GeForce Release 266.56 (для GTX 560 Ti)
GeForce Release 263.09 (для GTX 570)
GeForce Release 260.99 (для GTX 460 и 470)

Игры
Lost Planet 2 Highest Quality Settings, No AA / No AF, 4x MSAA / 16x AF, vsync off, 1680x1050 / 1900x1080 / 2560x1600, DirectX 11, Steam version
Just Cause 2 Highest Quality Settings, No AA / 2x AF, 8x AA / 16x AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600, Bokeh filter and GPU water disabled (для видеокарт nVidia), Concrete Jungle Benchmark
Metro 2033 High Quality Settings, AAA / 4x AF, 4x MSAA / 16x AF, 1680x1050 / 1920x1080 / 2560x1600, Built-in Benchmark, Steam version
F1 2010 Ultra High Settings, No AA / No AF, 8x AA / No AF, 1680x1050 / 1920x1080 / 2560x1600, Steam version, Custom benchmark script, DX11 Rendering
Aliens Vs. Predator Benchmark High Quality Settings, SSAO, No AA / 16xAF, Ultra Quality Settings, 4x MSAA / No AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600
Battlefield: Bad Company 2 Custom (Highest) Quality Settings, No AA / No AF, 8x MSAA / 16xAF, 1680x1050 / 1920x1080 / 2560x1600, opening cinematic, 145 second sequence, FRAPS
3DMark11 Performance Default
HAWX 2 Highest Quality Settings, 8x AA, 1920x1200, Retail Version, Built-in Benchmark, Tessellation on/off
World of Warcraft: Cataclysm Ultra Quality Settings, No AA / 16x AF, 8x AA / 16x AF, From Crushblow to The Krazzworks, 1680x1050 / 1920x1080 / 2560x1600, FRAPS, DirectX 9 Rendering

GeForce GTX 560 Ti | Результаты тестирования

Не так давно мы обсуждали тест 3DMark11 с nVidia по телефону. Кажется, компании не нравится этот тест, потому что он не отражает будущее развитие игр, а именно, более широкое использование геометрии для улучшения реализма.

Несомненно, в 3DMark11 акцент делается на освещение, в частности на одном из шейдеров DirectX 10. Однако у нас состоялся откровенный разговор с Futuremark, которые сказали, что они спроектировали свой тест с правильной оптимизаций тесселяции. Излишняя геометрия сцены сильно сказывается на качестве визуального отображения, но потенциально может значительно снизить производительность видеокарт начального уровня и средних видеокарт. В то время, как первый графический тест в 3DMark вообще не затрагивает геометрию, то второй, третий и четвертый тесты включают то, что мы считаем разумным количеством тесселяции – то есть, нет ни одной сцены с настолько большими треугольниками, где мы могли бы подумать: "О! Здесь можно было бы добавить немого геометрии".

Конечно, nVidia утверждает, что подобный синтетический тест, ориентируется на будущие игры, а не на те, которые вышли сегодня. Однако, Futuremark утверждает, что разработчики игр не будут увеличивать сложность сцен ради их сложности.



Согласно Futuremark, 3DMark11 содержит достаточно геометрии для увеличения реализма

В конце концов, более важно, насколько 3DMark11 правильно отражает большинство реальных игр. Когда вы просмотрите на результаты тестов, основанных на играх с DirectX 11 (все, что мы тестировали сегодня, за исключением World of Warcraft, основано на DirectX11), то заметите, что на самом деле 3DMark11, по какой-то причине, не всегда хорошо справляется. Наиболее заметна разница между GeForce GTX 560 Ti и Radeon HD 6870. В этом тесте видеокарта от AMD обгоняет nVidia, но во всех случае с реальными играми (за исключением F1 2010 – об этом чуть позже) nVidia вырывается вперед. GTX 470 также даёт непропорционально низкий результат, по сравнению с Radeon HD 6870. Интересно заметить, что даже в собственной линейке AMD Radeon HD 5870 побеждает Radeon HD 6950 во многих тестах, хотя 3DMark11 наоборот показывает существенный отрыв.

Возможно, 3DMark11 больше представляет будущее, чем думает nVidia, если двойной тесселяционный движок помог HD 6950 так далеко уйти вперёд от HD 5870. Или, может быть, уверенность AMD в шейдерах освещения DirectX 10 только подчеркивает высокую производительность DX10, в то время как nVidia, возможно, предлагает более дальновидную архитектуру, ориентированную на будущее. В любом случае не основывайте своё решение о покупке только на результатах синтетического теста. Люди в Futurmark приложили много усилий, чтобы исключить влияние политики, которую проводят AMD/nVidia, участвуя в разработках игр, но это приводит, в свою очередь, к разным результатам в синтетических тестах и в реальных играх.




Metro 2033 (DX11)



В разрешениях 1680x1050 и 1920x1080 выделяются GeForce GTX 570 и Radeon HD 6950 2 Гбайт, особенно с включенным сглаживанием. На менее производительных видеокартах вряд ли необходимо включать сглаживание, так как Metro 2033 одна из наиболее требовательных игр, которые мы использовали в нашем тестировании.

Как это не удивительно, Radeon HD 5870 уверенно занимает третье место во всех трёх тестах, доказав, что предыдущее поколение карт AMD по-прежнему конкурентоспособно, более чем через год после выхода.

GeForce GTX 560 Ti от nVidia находится в середине, побив Radeon HD 6870 без сглаживания, потеряв немного в двух разрешениях со сглаживанием, а затем обходит видеокарту AMD при разрешении 2560x1600 (хотя и не на играбельной частоте кадров). Наверное, ещё более примечательным является тот факт, что 560 Ti обошёл карту GeForce GTX 470, которая основана на более сложном GPU, рассеивает больше тепла и потребляет больше энергии.

LostPlanet 2 (DX11)



На самом деле не удивительно, что карты GeForce доминируют в Lost Planet 2, ведь она с логотипом TWIMTBP (The WayIt’s Meant To Be Played). Удивительно то, что Radeon HD 6950 занял второе место при разрешении 2560x1600.

GeForce GTX 560 Ti ставят сегодня в один ряд с GeForce GTX 470, показывая нам, что ядра CUDA, сами по себе, не приводят к увеличению производительности - текстурная пропускная способность также важна, и архитектура GF114 лучше подходит для массовых игр, чем некоторые более мощные графические процессоры от NVidia.

Интересно, что AMD Radeon HD 5870 плетётся на последнем месте, однако при разрешении 2560x1600 он поднялся на один пункт.

Aliens Vs. Predator (DX11)



Radeon HD 5870 возвращает себе лидерство среди видеокарт AMD среднего уровня, побил даже Radeon HD 6950 2 Гбайт во всех трёх разрешениях.

Тем временем, nVidia GeForce GTX 560 Ti попадает в середину, обогнав Radeon HD 6870 и GeForce GTX 470. На самом деле довольно трудно получить хорошую частоту кадров с включенным 4xAA, поэтому мы рекомендуем обратить больше внимания на тесты с выключенным сглаживанием.

Battlefield: Bad Company 2 (DX11)



Многие игры, первыми начавшие поддерживать DirectX 11 были помечены как "проверенные DX11 игры". Они, конечно, поддерживали некоторые функции DirectX 11, но этого недостаточно, чтобы показать все способности API. Battlefield: Bad Company 2 была одной из первых игр DX11-класса и она тоже получила отметку "проверенной" игры, также как AvP и DIRT2.

GeForce GTX 560 Ti от NVidia довольно хорошо показала себя в разрешении 1680x1050, немного опередив GTX 470 и даже более дорогой Radeon HD 6950 на 2 Гбайт. Далее, в разрешении 1920x1080 GTX 560 Ti проиграла HD 6950, а при 2560x1600 оказалась даже ниже, чем Radeon HD 6870. В этом разрешении мы наблюдаем три видеокарты, такие как HD 6870, GTX 560 и GTX 470, у которых практически одинаковое количество кадров в секунду.

Настоящая новость состоит в том, что Radeon HD 5870 от AMD обогнал почти все карты (кроме GeForce GTX 570) на всех трёх разрешениях.

GeForce GTX 560 Ti | Результаты тестирования. Продолжение

F1 2010 (DX11)



Мы слышали, что F1 2010 тоже отмечен как "проверенная" игра DX11-класса, но фактически она уступает DiRT 2 из-за удаления поддержки тесселяции и ограничивая поддержку API только шейдерной маской и эффектом размытия. Тем не менее, игра выглядит довольно хорошо.

На разрешениях 1680x1050 и 1920x1080 GeForce GTX 570 занимает первое место, однако Radeon HD серии 5000 и 6000 идут следом. На разрешении 2560x1600 Radeon HD 5870 от AMD даже занял первое место.

Между тем, GeForce GTX 560 Ti немного отстаёт. Он смог поравняться с GeForce GTX 470, которую должен заменить, но всё же проигрывает более дешёвым картам от AMD.

Just Cause 2



Хотя Just Cause 2 тоже имеет логотип TWIMTBP, Radeon HD 5870 наглядно показывает нам, что видеокартам от nVidia этот логотип не сильно помогает, но похоже это не относится к картам серии HD 6000.

Radeon HD 6950 2 Гбайт смог обойти GeForce GTX 560 Ti только при разрешении 2560x1600. Если бы Radeon HD 5870 не показал лучшие цифры за меньшие деньги, можно было бы подозревать, что это из-за спонсорского логотипа nVidia.

World Of Warcraft: Cataclysm



С недавнего времени, мы стали получать множество просьб о включении World of Warcraft в наши постоянные обзоры видеокарт, что мы и сделали. Кроме того мы хотели провести дополнительные тесты по масштабированию производительности конфигураций с несколькими видеокартами, так как в игре изначально отсутствовала поддержка таких конфигураций. Более подробно об этом расскажем ниже.

Поскольку уровень производительности одиночных видеокарт продолжает расти, результаты здесь довольно близки к тем, что мы видели перед этой частью. Разница в том, что мы запускаем игру в том виде, как она поставляется - с режимом DirectX 9 (а не с экспериментальным кодом для запуска DX11, который улучшает производительность). Как и раньше, видеокарты от nVidia показали себя очень хорошо, GeForce GTX 570 и 560 Ti заняли два первых места во всех разрешениях.

Radeon HD 6950 борется с GeForce GTX 470 за третье место. Остальные видеокарты расположились ниже. Стоит отметить, что Radeon HD 5870 занимает четвертое место при разрешении 2560x1600 и идёт сразу после Radeon HD 6950. Опять же, архитектура Cypress демонстрирует своё превосходство.

Мы забежали немного вперед и добавили результаты Radeon HD 4870 X2 для тех, кто использует старые видеокарты класса DirectX 10. Как видно, старый флагман всё ещё способен потягаться с современными моделями, даже на высоких настройках при разрешении 2560x1600. Однако, у HD4870 X2 есть небольшая проблема с высоким качеством при использовании последней бета-версией драйвера от AMD.



это должна была быть вода…

Масштабирование в SLI и CrossFire

В Lost Planet 2 GeForce GTX 560 Ti в одиночном режиме доминирует над Radeon HD 5870 и 6870, поэтому тот факт, что пара этих карт делает то же самое в SLI, на самом деле не удивляет.

Возможно, более интересным будет то, что Radeon HD 5870 и 6870 показали почти одинаковую производительность. Мы видели, как Radeon HD 6870 выдавал больше кадров на разрешении 1680x1050 и 1920x1080, пропустив HD 5870 вперед только при 2560x1600. Однако в CrossFire, два HD 6870 показали небольшой отрыв в разрешении 2560x1600, тем самым демонстрируя лучшее масштабирование карт на основе Barts.

С Aliens Vs. Predator абсолютно другая история. В режиме одиночной карты Radeon HD 5870 занял второе место в разрешении 2560x1600, и он использует это преимущество, чтобы занять первое место в тесте двух видеокарт. GeForce GTX 560 Ti и Radeon HD 6870 прежде показывавшие почти одинаковые результаты и сейчас оказались очень близки в SLI и CrossFire.

В F1, в сдвоенном режиме, GeForce GTX 560 Ti, как и в одиночном, показал себя плохо, и две видеокарты от AMD опять вырвались вперед. Более дешёвый Radeon HD 6870 даже показал более высокую частоту кадров с включенным 8x MSAA, чем GTX 560 Ti с выключенным.

Лучшее масштабирование Radeon HD 6870 позволяет ему выигрывать у двух GeForce GTX 560 Ti в режиме SLI, несмотря на то, что видеокарта от nVidia была быстрее при 2560x1600 в режиме одиночной карты. Более примечательно то, что Radeon HD 5870 в CrossFire превосходит другие пары видеокарт и финиширует на первом месте.

Мы буквально бились головой о стену в течение нескольких дней, пытаясь выяснить проблему запуска World of Warcraft: Cataclysm от Blizzard на SLI/CrossFire. По словам AMD, она выпустила обновление профиля CrossFire вскоре после того, как мы закончили тестирование. У nVidia всё ещё есть отчеты об ошибках, указывающих, что масштабирование не такое целостное, каким оно должно быть. Однако, после ряда мелких исправлений и обновлений драйверов устройств, мы рады сообщить, что теперь можно увидеть масштабирование в том же Crushblow при пролёте The Krazzworks. nVidia утверждает, что не видит идеального масштабирования, но производительности двух GeForce GTX 560 Тi (с 8-кратным сглаживанием) достаточно, чтобы соответствовать двум Radeon HD 5870 (без сглаживания). Radeon HD 6870 отстаёт так же, как и в результатах тестов одиночных видеокарт.

GeForce GTX 560 Ti | Разгон


Gigabyte прислал нам свою видеокарту GV-N560SO-1GI, специально разогнанную до 1 ГГц (по сравнению со штатной частотой 822 МГц) для графического процессора и до 1145 МГц (по сравнению с частотой 1 ГГц) для видеопамяти. Представители Gigabyte говорят, что эта карта будет продаваться по цене $269 – это на $20 больше, по сравнению с ранее заявленной ценой в $249.



Как вы можете видеть, GeForce GTX 560 Ti, работающая на частоте 1 ГГц существенно быстрее, чем референсные видеокарты от nVidia, присланные ранее. Это не так быстро, как GeForce GTX 570, как обещает Gigabyte, но факт в том, что результаты довольно похожи, а цена на $80 меньше. Теперь, Gigabyte использует свой собственный процесс отбора GF114, способных устойчиво работать на частоте 1 ГГц. Не каждый графический процессор способен работать на таком уровне. Однако справедливо предположить, что большинство GeForce GTX 560 будут уверенно работать со среднюю скорость. nVidia подтверждает, что частотf около 900 МГц довольно типична для видеочипов, протестированных ранее.

GeForce GTX 560 Ti | Шум и энергопотребление

Мощность

Изменив недавно способ измерения мощности, мы хотели убедиться, что получаем правильные результаты. Запустив несколько игр на DirectX 9, 10 и 11, мы не смогли получить уровень энергопотребления выше, чем в игре Metro 2033 (хотя, по-видимому, старые игры могут выдать и более высокое энергопотребление). Однако мы заметили, что низкие разрешения более требовательны к питанию, чем высокие. Это имеет некоторый смысл - если вы не создаете искусственно высокие нагрузки на GPU, центральный процессор вынужден работать более интенсивно. Поэтому наш тест энергопотребления проходит при разрешении 1680x1050 с использованием AAA и 4x AF.

Очевидно, что Radeon HD 4870 X2 был в своё время настоящим "зверем". Видеокарты с двумя GPU и сейчас могут предоставить приличную производительность в современных играх, но они буквально высасывают энергию во время работы. Абсолютная скорость может быть и не такой высокой, но соотношение производительности на ватт оставляет желать лучшего.

Следующим по потреблению энергии идёт GeForce GTX 570, а сразу же за ним GeForce GTX 470. Отличие заключается в том, что GTX 570 намного более производительная, а разница в 4 Вт всё-таки небольшая по сравнению со скоростью, которую вы получите.

Видеокарта Средняя мощность системы, Вт
GeForce GTX 560 Ti 263.3
GeForce GTX 570 292.6
GeForce GTX 460 241.0
GeForce GTX 470 288.9
Radeon HD 6950 253.1
Radeon HD 6870 234.1
Radeon HD 5870 249.6
Radeon HD 4870 X2 402.0

GeForce GTX 560 Ti потребляет меньше этих двух видеокарт, в среднем на 25 Вт, но всё же больше, чем Radeon HD 6950 2 Гбайт от AMD, который, быстрее при высоких разрешениях. Общая разница в 10 Вт по энергопотреблению всей системы делает соотношение производительность на ватт в пользу AMD.

Radeon HD 5870, GeForce GTX 460 и Radeon HD 6870 оказались близко друг к другу и замыкают список. Однако, как вы могли видеть из анализа тестирования, Radeon HD 5870, безусловно, фаворит по производительность, и это более чем через год после появления.

Шум

Мы не смогли включить Radeon HD 4870 X2 в наши тесты DirectX 11, потому что, он поддерживает только DirectX 10. Но мы смогли протестировать его на шум, энергопотребление и производительность в World Of Warcraft. Эта карта служит хорошей отправной точкой в нашем акустическом тесте. Под нагрузкой, карта довольно сильно шумит.

Однако, на холостом ходу Radeon HD 4870 X2 шумит не больше других видеокарт, рассмотренных здесь. Наиболее шумные карты, как правило, являются флагманами, а не картами среднего класса и цены. Надо сказать, что nVidia действительно решает проблему шума видеокарт на базе GF100. GeForce GTX 560 Ti является самой тихой картой из всех протестированных. После 10-го запуска Metro 2033 она производит столько шума, сколько производит GeForce GTX 460 на холостом ходу.

GeForce GTX 560 Ti | Заключение

Мы не были впечатлены высочайшей графикой до запуска Radeon HD 6990 от AMD на базе Antilles. Radeon HD 5970 стоит около $ 600 и более. Но эта видеокарта, выпущена более года назад. GeForce GTX 580 стоит $500. Если вы покупаете несколько флагманских карт для того, чтобы соединить их в SLI или Crossfire, это обойдётся вам в непомерную сумму около $1000 и более. Сейчас появились варианты в среднем классе.

GeForce GTX 460, Radeon HD 6870, GeForce GTX 570, Radeon HD 6950 – любые из этих видеокарт в SLI или Crossfire смогут вас порадовать.

Теперь появляется GeForce GTX 560 Ti, занимающий место как раз в центре этой четверки видеокарт. С точки зрения производительности, эта видеокарта практически в точности заменяет GeForce GTX 470. С точки зрения цены, она сохранит вам $10. С точки зрения шума, 560 Ti определённо является победителем, хотя и GTX 470 тоже несильно шумит, как например GeForce GTX 480. GTX 560 Ti также выигрывает по энергопотреблению, требуя в среднем на 25 Вт меньше, чем GTX 470.

Все эти вещи, взятые по отдельности, являются дополнительными усовершенствованиями, которые nVidia всё равно должна была сделать. Благодаря мощному и горячему графическому процессору GF100, GeForce GTX 470 стоит в продуктовой линейке компании наряду с более изящными картами, такими как GTX 570 и 460. Таким образом, GeForce GTX 560 Ti не впечатляет даже при всех этих маленьких дополнениях, собранных вместе. Но в этой видеокарте нет ничего плохого, это просто улучшенная версия GTX 470, но на $10 дешевле.

Мы без энтузиазма смотрим на видеокарты партнёров nVidia, построенных на GF114. Видеокарта GV-N560SO-1GI от Gigabyte не побила GeForce GTX 570 ни в одном из наших тестов, но она была очень близко в некоторых из них. Gigabyte утверждает, что видеокарта будет продаваться по цене $269. Это довольно низкая цена для карты с тактовой частотой работы графического процессора в 1 ГГц. Однако сможет ли компания поддерживать эту цену, когда GeForce GTX 570 продаётся за $349?

А как же конкуренты? Хотя GeForce GTX 560 Ti почти во всём быстрее, чем Radeon HD 6870 и всего на $20-$40 дороже было бы несправедливо не отметить, что некоторые HD 6870 продаются за менее чем $200 с учётом скидок. Даже сейчас на конфигурацию Crossfire можно потратить на $100 меньше, чем на SLI с GeForce 560 Ti. Radeon HD 5870 также выглядит довольно хорошо, но только если вы сможете найти его дешевле, чем GeForce.

Несомненно, сейчас лучшее время для обновления устаревшей на одно-два поколения видеокарты. Если вы уже приобрели приличную карту в прошлом году, то GeForce 560 Ti вряд ли даёт повод потратить лишние $250. 560 Ti немного быстрее, немного эффективнее, немного тише и немного дешевле, чем GeForce GTX 470, с которой можно попрощаться.

Постскриптум: AMD появляется с двадцатью Radeon HD 6950 1 Гбайт

Мы любим хорошую конкуренцию, но плохой маркетинг может всё испортить.

AMD обратилась к нам с заявлением, что будет поставлять версию Radeon HD 6950 на 1 Гбайт в середине февраля по цене между $269 и $279. "Ну и хорошо", подумали мы тогда. "Беспокоиться будет тогда, когда она выйдет... через три недели. До тех пор, это всего лишь пустые слова на бумаге".

Через некоторое время видеокарты появились и, конечно, мы пропустили их через наш полный набор тестов.

Почти в каждом случае, меньший буфер кадров (и более жёсткая синхронизация памяти) выдаёт на один или два кадра в секунду больше, чем в модели на 2 Гбайт. Это недостойно отдельной диаграммы. В игре Metro 2033 с включенным 4х MSAA и 16x AF, видеокарте на 1 Гбайт не хватило объёма буфера, чтобы поддерживать производительность и FPS упал до 10 кадров в секунду против 30 на 2 Гбайт версии.

Если честно, то возможно AMD должны была представить Radeon HD 6950 первой, а не видеокарту на 2 Гбайт за $300. Однако они не делают этого, возможно, чтобы избежать конкуренции с Radeon HD 6870 по цене $240-$260. Очевидно, что AMD выпустил их вместе до старта продаж видеокарты от nVidia, а опцию как бы придержали в резерве, пока не увидели, что GTX 560 Ti может. Потеря продаж HD 6870 в пользу более дешёвого Radeon HD 6950 звучит лучше для AMD, чем потеря продаж в пользу nVidia.

Теперь, перед лицом GeForce GTX 560 Ti, AMD говорит, что Radeon HD 6950 на 1 Гбайт будет оценен в $259, а Radeon HD 6870 понизится до $219. Останутся ли эти цены или нет, ещё предстоит выяснить. В любом случае, наше заключение относительно GTX 560 Ti не меняется. Он по-прежнему не даёт нам повод к апгрейду. Если сравнивать видеокарты по производительности, то решения от AMD выглядят лучше.

Грязные сплетни создают…

История бы закончилась, если бы Radeon HD 6950 1 Гбайт не появился. Накануне запуска nVidia, один из партнёров говорил нам о том, что AMD выставила на продажу HD 6950 1Гбайт на складе в Newegg за $259. На момент написания статьи в доступности было 20 видеокарт. Мы разговаривали с Newegg и они подтвердили это. Когда вы это прочтёте, их уже не будет в продаже.

Очевидно, что 20 человек будут очень рады получить видеокарту, которая быстрее, чем GeForce GTX 560 Ti за точно такую же цену. Всем остальным придётся подождать. В любом случае, это один из самых слабых маркетинговых ходов, который мы видели. Видеокарта от AMD достаточно сильна, чтобы выстоять самостоятельно, даже при изначально-прогнозируемой цене $269 - $279.

Маловероятно, что вы купите HD 6950 1 Гбайт, если играете на трёх мониторной конфигурации Eyefinity в CrossFire. Для этого вам понадобится видеокарта с памятью в 2 Гбайт, чтобы поддерживать разрешение 5760x1080 с активным AA и AF. Однако Radeon HD 6950 1 Гбайт более привлекателен на разрешении 1920x1080 с максимальной детализацией или на 2560x1600, но с чуть меньшей детализацией.

В сущности, благодаря памяти, Radeon HD 6950 создает достойную конкуренцию GeForce GTX 560 Ti от nVidia.

Видеокарта – один из основных элементов при сборке игрового компьютера. Крупные производители очень часть выпускают новые модели в разных ценовых категориях. Но это не значит, что предыдущие версии видеокарт теряют свою актуальность. Выпущенная в 2011 году Nvidia Geforce GTX 560 Ti может стать неплохим выбором для бюджетной сборки компьютера и на сегодняшний день.

Для получения полной картины о том, что именно из себя представляет видеокарта, нужно более подробно рассмотреть характеристики GTX 560 Ti:

  • В качестве графического процессора выступает GF114 с 40-нанометровым техпроцессом.
  • Тактовая частота ядра составляет 822 МГц.
  • Количество установленных транзисторов – 1950 млн. штук.
  • Число потоковых мультипроцессоров – 8.
  • Количество блоков растеризации – 32.
  • Текстурных блоков – 64.
  • Объем видеопамяти составляет 1024 МБ типа GDDR5 и пропускной способностью 128 Гбайт/с.
  • Эффективная частота – 4008 МГц.
  • Шина памяти – 256 бит.

Этих характеристик Nvidia Geforce GTX 560 Ti будет достаточно для запуска современных игр на низких и средних настройках. Также этот видеоускоритель отлично справится с обработкой фотографий и видео в «тяжелых» программах.

Обзор видеокарты

За раскрытие мощностей видеокарты отвечает процессор. Для модели GTX 560 Ti отличным вариантом являются чипы от компании Intel. Видеоускоритель в связке с процессором Intel core i3 и выше будет работать на 100% своих возможностей в современных играх и программах.


Энергопотребление видеокарты – 170 Вт. Из этого следует вывод, что оптимальным выбором блока питания будут варианты с мощностью от 300 Вт и выше. Этой мощности будет достаточно даже при работе с большим количеством оперативной памяти и мощным процессором.

Что же касается нагрева видеоускорителя, то рабочая температура видеокарты Nvidia GTX 560 Ti составляет 80-85 градусов. В редких случаях она может достигать 100 градусов. При увеличении этого показателя стоит всерьез задуматься над заменой заводской термопасты на новую.

Улучшение производительности

Если стандартных мощностей видеокарты кажется вам недостаточно, то стоит обратить внимание на разгон GTX 560 Ti. Он позволит увеличить производительность.

Для осуществления разгона понадобится программа MSI Afterburner. После ее запуска можно наблюдать интерфейс со следующими показателями:

  1. Core Voltage – отвечает за напряжение ядра.
  2. Power Limit – предел энергопотребления.
  3. Core Clock – частота ядра графического процессора.
  4. Memory Clock – частота памяти графического процессора.
  5. Fan speed – скорость кулера.

Из всех пунктов нам нужно будет увеличить два показателя: Core Clock и Memory Clock. Частоту ядра ГП увеличиваем до 900 MHz. Частоту памяти поднимаем до 2100 MHz.

Проделывать эти действия нужно постепенно. За каждый шаг поднимать показатели на 20-30 MHz.

После того как разгон видеокарты Nvidia Geforce GTX 560 Ti завершен, нужно произвести стресс-тест при помощи утилиты Funmark. Он позволит выявить неполадки в работе, если они имеются. В случае обнаружения неисправностей, увеличенные в MSI Afterburner показатели нужно уменьшить.

Финальный результат разгона можно посмотреть при помощи программы GPU-Z. Она позволяет производить мониторинг всех показателей видеоускорителя.

Тестирование в играх

GTX 560 Ti была выпущена в 2011 году. Несмотря на это, ее мощностей хватает для запуска и комфортной игры в современные проекты.

Тестирование видеокарты производилось в самых требовательных играх на сегодняшний день. За время тестов были получены следующие показатели:

Grand Theft Auto 5. При запуске GTA V на высоких настройках количество FPS в игре составляло 15-20 кадров, в некоторые моменты появлялись фризы. Для увеличения FPS настройки графики понизили до средних. Минимальное количество кадров увеличилось до 30-35.

The Witcher 3. Для максимально комфортной игры запускать «Ведьмака» нужно на минимальных графических настройках. Среднее количество кадров – 25-30. В локациях с большим количеством объектов этот показатель уменьшается до 20 кадров.

Battlefield 1. При запуске кампании на средних настройках FPS находился в районе 30 кадров в секунду. При переходе в онлайн-сражения этот показатель падал до 24. Этого количества вполне достаточно для комфортной игры на средних настройках в формате FullHD.

Dishonored 2. Несмотря на не самую лучшую оптимизацию в игре, среднее число кадров во время тестов – 25. Очень редко во время насыщенных экшен-сцен случаются просадки до 20 кадров и появляются мелкие, порой незаметные, фризы.

Assassin’s Creed: Origins. К сожалению, для комфортной игры в «AC: Истоки» нужна более мощная видеокарта. Характеристик GTX 560 Ti недостаточно, чтобы вытянуть FPS хотя бы до приемлемых 25 кадров даже на низких настройках.

Watch Dogs 2. Аналогичная ситуация с этим проектом. Оптимизация игры – не самая лучшая ее сторона. От этого запуск игры на видеоускорителях с 1 ГБ памяти оборачивается низкой производительностью. Минимальное количество FPS на низких настройках – 15 кадров.

На основе проведенных тестов можно заметить, что на GTX 560 Ti можно играть в большинство современных проектов на низких и средних настройках графики.

Сравнение разных производителей

Производством GTX 560 Ti занимаются 5 разных компаний. Для выбора оптимального нужно более подробно рассмотреть модели видеоускорителя.

Производитель Gigabyte Asus Palit Zotac MSI
GPU GF114 GF114 GF114 GF114 GF114
Техпроцесс 40 нм 40 нм 40 нм 40 нм 40 нм
Количество ядер CUDA 384 384 384 384 384
Количество транзисторов (млн, шт) 1950 1950 1950 1950 1950
Площадь кристалла (мм2) 367 367 367 367 367
Число потоковых мультипроцессоров 8 8 8 8 8
Количество скалярных процессоров 384 384 384 384 384
Тактовая частота шейдерного домена (МГц) 1664 1664 1664 1664 1664
Частота GPU (МГц) 900 830 900 950 750
Предельная температура процессора (°С) 100 100 100 100 100
DirectX 11 11 11 11 11
Объем видеопамяти (Мбайт) 1024 1024 1024 1024 1024
Тип видеопамяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Ширина шины (бит) 256 256 256 256 256
Эффективная частота памяти (Мбайт) 4008 4008 4008 4008 4008
Пропускная способность(Гбайт/c) 128.3 128.3 128.3 128.3 128.3
Цена GTX 560 Ti 6500р. 6200р. 6400р. 6490р. 6350р.

Основные различия между производителями заключаются в тактовой частоте процессора. Минимальный показатель у видеокарты от компании MSI – 750 МГц. Максимальная частота – 950 МГц – принадлежит модели от Zotac. Что же касается ценового разброса, то он минимальный и практически не зависит от производителя.

Где взять драйвера

Для получения максимальной производительности нужно скачать последние драйвера Nvidia Geforce GTX 560 Ti с официального сайта. Компания-производитель старается выпускать новые версии драйверов как можно чаще. Они направлены на улучшение работы устройства в современных играх.

Чтобы не пропускать выход новых версий драйверов, можно скачать программу Geforce Experience. С ее помощью пользователи получает оповещения о необходимости установки обновлений.

ВведениеКак известно всем, кто хоть в какой-то мере интересуется новинками рынка дискретной компьютерной графики, "роды" GeForce GTX 480 были трудными, и первенец новой архитектуры NVIDIA Fermi появился на свет не в полной конфигурации. Лишь ближе к концу 2010 года компания завершила работу над ошибками, явив на суд публики улучшенную версию ядра GF100 - GF110. Доработанный и усовершенствованный наследник, наконец, смог стать тем, чем должен был стать GF100 с самого начала, и решения на его основе, GeForce GTX 580 и GeForce GTX 570, завоевали наши симпатии, великолепно проявив себя в игровых тестах.

Но с самого начала было понятно, что этим NVIDIA не ограничится, и процесс замены семейства GeForce 400 семейством GeForce 500 будет продолжаться и дальше. Следующим кандидатом в этой цепочке закономерно стал GeForce GTX 460. Надо сказать, что решения на базе GF104 изначально вышли более удачными, нежели старшие модели GeForce 400, использовавшие GF100. Во-первых, сам чип был более простым и более дешёвым в производстве, а, во-вторых, он умел выполнять фильтрацию текстур FP16 на полной скорости.

Всё это позволило ему на долгое время стать "основным боевым танком" NVIDIA, способным успешно сражаться с врагом и побеждать его. В ценовой категории "199-229" долларов GeForce GTX 460 768MB и GeForce GTX 460 1GB долгое время не имели себе равных, а присутствие на рынке большого количества моделей с серьёзным заводским разгоном свидетельствовало о высоком потенциале GF104. Однако, и у этого ядра был свой "тёмный секрет" - из восьми имеющихся в его составе мультипроцессоров активно было только семь, что давало 336 ALU и 56 текстурных блоков, в то время, как физических их было 384 и 64, соответственно.

Вряд ли GF104 страдал теми же "детскими болезнями", что и GF100, просто NVIDIA, по всей видимости, пыталась выпустить на рынок новое массовое графическое ядро как можно быстрее, обеспечив при этом максимальный выход годных кристаллов. Многие обозревательские ресурсы предполагали, что вслед за усечённой версией GF104 может увидеть свет полная, однако, при жизни семейства GeForce 400 этого так и не произошло.

Это случилось только сегодня, 25 января, когда NVIDIA представила миру наследника GF104 - ядро GF114, а также новую графическую карту класса "performance-mainstream" на его основе. В терминологии NVIDIA класс доступных, но высокопроизводительных игровых видеокарт называется "Hunter", но мы предпочитаем сравнение с современными боевыми танками. В этой перспективе флагманские модели стоимостью более 250 долларов представляются мощными, тяжёлыми и отлично вооружёнными моделями танков, которые, однако, в силу своей относительной малочисленности не могут создать перевеса по всему фронту. Эта тяжёлая и неблагодарная работа ложится на плечи более массовых боевых машин, сочетающих в себе простоту с приемлемыми тактико-техническими характеристиками.

Новой боевой машиной NVIDIA такого класса и стал GeForce GTX 560 Ti, анонсированный сегодня. Признаться, возврат к использованию приставок в названиях графических нас удивил. "Ti", очевидно, означает "Titanium", что должно намекать на великолепные потребительские качества новинки, однако, использование всевозможных приставок и суффиксов разрушает стройную систему наименований и возвращает нас в далёкий 2001 год, когда вышеупомянутая приставка была впервые использована в названии одной из моделей GeForce 2. На наш взгляд, можно было бы ограничиться названием GeForce GTX 560 и не создавать потенциальной путаницы в умах покупателей.

Так или иначе, новый GeForce GTX 560 Ti здесь, и мы собираемся познакомиться с ним поближе, дабы выяснить, на что способен новый массовый "танк" NVIDIA на поле боя.

NVIDIA GeForce GTX 560 Ti: архитектура

Как и в случае с GeForce GTX 580/570, организация нового ядра не изменилась. По сути, GF114 представляет собой полностью активный GF104, оптимизированный для достижения более высоких тактовых частот при сохранении уровня энергопотребления в разумных пределах.


Два кластера GPC включают в себя по четыре мультипроцессора, каждый из которых, в свою очередь, несёт в своём составе по 48 универсальных поточных ядер, и, соответственно, общее количество этих ядер равно 384. Каждый мультипроцессор обслуживается восемью блоками текстурных операций, так что общее количество активных TMU в новом чипе составляет 64. Архитектура текстурных процессоров не изменилась со времён GF104. Они способны выполнять полноскоростную фильтрацию текстур формата FP16, наряду с традиционным форматом INT8. А вот фильтрация текстур в формате FP32 осуществляется в четыре раза медленнее. Объём кэша второго уровня, как и в GF104, составляет 512 КБ.

Кроме того, каждый мультипроцессор включает в себя и блок PolyMorph Engine, что ставит GF114 на голову выше любого решения AMD в области обработки геометрических данных и тесселяции. Даже два блока тесселяции третьего поколения в составе Cayman вряд ли смогут поспорить на равных с восемью блоками GF114. Конфигурация растровой подсистемы GF114 осталась прежней и включает в себя 32 блока RBE. Поскольку эта подсистема напрямую связана с подсистемой памяти, последняя по-прежнему состоит из четырёх 64-битных контроллеров, так что общая ширина шины, связывающей GPU с банком локальной памяти составляет 256 бит.

Что касается мультимедийных возможностей, то здесь заметных нововведений не замечено, но они, в сущности, и не нужны: уже GF104 умел всё, необходимое по современным меркам, включая полное аппаратное декодирование и масштабирование видео высокого разрешения в форматах H.264 и VC-1, а также защищённый вывод многоканального звука в форматах Dolby TrueHD и DTS-HD Master Audio посредством Protected Audio Path. Единственное весомое преимущество, которым в этой сфере может похвастаться AMD, это поддержка аппаратного декодирования DivX.

В целом, GF114 прекрасно соответствует принципу "разумной достаточности" - он поддерживает все современные графические и мультимедийные технологии, но не содержит в себе каких-то редко востребованных излишеств, вроде возможности одновременного подключения шести мониторов. По сути, новый массовый графический процессор NVIDIA являет собой не более чем закономерное эволюционное развитие идей, нашедших воплощение в GF104. Рассмотрим, как решение на его основе выглядит на фоне соперников, предшественников, и старших собратьев.

NVIDIA GeForce GTX 560 Ti: место в строю

Как GF110 является "правильной" версией GF100, так и новый GF114 стал тем, чем с самого начала должен был стать GF104. В результате проделанной работы над ошибками команде разработчиков NVIDIA удалось добиться стабильной работы нового ядра в полной конфигурации с восемью активными мультипроцессорами, дающими в сумме 384 универсальных ALU, причём, на более высоких тактовых частотах, нежели в случае с GF104. Впрочем, гораздо лучше такие вещи познаются в сравнении:



* начиная с Catalyst 10.12


Итак, очевидно, что новый GeForce GTX 560 Ti по отношению к GeForce GTX 460 1GB является тем же, чем GeForce GTX 580 и 570 стали по отношению к GeForce GTX 480 и GeForce GTX 470, соответственно. Иными словами, это очередная "старая сказка на новый лад", однако, ничего плохого в этом нет, поскольку сама по себе архитектура Fermi очень удачна, за исключением, пожалуй, не слишком производительной в сравнении с решениями конкурента текстурной подсистемы.

В первую очередь, бросаются в глаза существенно возросшие тактовые частоты ядра - свыше 800 МГц для основного домена и более 1.6 ГГц для вычислительного. Для решений NVIDIA, с учётом их архитектурных особенностей, это очень серьёзное достижение. Ранее такие частоты покорялись разве что отдельным моделям GeForce с заводским разгоном, но отныне AMD следует начать беспокоиться всерьёз, поскольку даже основной домен GF114 работает быстрее, нежели всё ядро Radeon HD 6950. К тому же, последнее имеет всего 352 универсальных процессора VLIW4 против 384 скалярных ALU у GF114.

При этом известно, что графическая архитектура ATI/AMD достигает максимальной производительности отнюдь не всегда, а новая её инкарнация в лице Cayman, к тому же, потеряла выделенный ALU для комплексных операций, и в случае необходимости их выполнения вынуждена задействовать четыре простых ALU, тем самым теряя в "тяговооружённости". Отсюда следует, что в наиболее неудобном для архитектуры AMD Cayman случае, Radeon HD 6950 будет серьёзно уступать GeForce GTX 560 Ti с её 384 поточными процессорами, работающими на частоте свыше 1600 МГц. Как будут обстоять дела в реальных приложениях, покажут тесты. Про Radeon HD 6870 не приходится и говорить - он уступает GeForce GTX 560 Ti по всем показателям, включая производительность текстурной подсистемы.

Характеристики подсистемы памяти GeForce GTX 560 Ti несколько улучшились, однако, 128 ГБ/сек на фоне показателей AMD Cayman и даже Barts отнюдь не выглядят откровением. Не вполне понятно, что помешало разработчикам NVIDIA довести частоту видеопамяти новинки хотя бы до 1125 (4500) МГц. У решений на базе GF110 есть оправдание: добиться стабильной работы памяти на таких частотах при 320-битной или даже 384-битной шине доступа - настоящее искусство, однако, GF114, имеющий, как и его предшественник, 256-битную шину памяти, этого ограничения лишён, и ничто не мешало бы использовать в конструкции GeForce GTX 560 Ti более производительные микросхемы GDDR5, по крайней мере, в теории. Тем не менее, пиковая пропускная способность подсистемы видеопамяти не является сильной стороной GeForce GTX 560 Ti, и по этому параметру новинку оставляет позади даже Radeon HD 6870, не говоря уж о Radeon HD 6950.

Что касается производительности текстурной подсистемы, то с разблокировкой восьмого мультипроцессора и поднятием тактовой частоты ядра до 820 МГц, это часто критикуемое ранее узкое место архитектуры Fermi стало во многом надуманным. С 64 активными TMU пиковая скорость обработки текстур достигает 52.6 гигатекселей в секунду, что даже больше аналогичных показателей старших моделей семейства GeForce 500. AMD Cayman с его 96 текстурными процессорами (88 в случае с Radeon HD 6950) способен и на большее, но во многом это стрельба из пушки по воробьям: как показывают результаты тестов, GeForce GTX 580 и GeForce GTX 570 отнюдь не страдают от нехватки производительности TMU, а новый GeForce GTX 560 Ti, как уже было сказано, опережает их в этой области.

Показатели подсистемы растровых операций также находятся на высоте за счёт повышенной частоты ядра. Пиковая скорость заполнения сцены у нового GeForce GTX 560 чуть ниже аналогичного показателя Radeon HD 6870, чьё ядро работает на частоте 900 МГц, но выше показателя более совершенного архитектурно Radeon HD 6950. Нехватки производительности не должно наблюдаться даже в высоких разрешениях при использовании сглаживания.

Остальные возможности GeForce GTX 560 Ti остались прежними; стоит лишь отметить, что в результате проделанных разработчиками GF114 оптимизаций, TDP вырос всего на 10 Ватт по сравнению с предшественником. Повторимся, в том, что новинка представляет собой улучшенный вариант GeForce GTX 460 1GB с восемью активными поточными мультипроцессорами и более высокими тактовыми частотами GPU и памяти, нет ничего плохого. Предшественник GeForce GTX 560 Ti был и продолжает оставаться весьма удачным решением и отличным выбором для игрока, не желающего тратить более 250 долларов на приобретение графической карты. Наследник перенял у него всё лучшее и довел до логического совершенства, подорожав всего на 20 долларов.

При официальной рекомендуемой цене на уровне 249 долларов, новый GeForce GTX 560 Ti автоматически попадает в промежуток между Radeon HD 6870 и Radeon HD 6950, будучи при этом в состоянии состязаться с ними обоими, и что-то подсказывает нам, что у него есть все шансы на победу. Рассмотрим новое решение NVIDIA в деталях. На этот раз первой в нашу тестовую лабораторию попал образец с эталонным дизайном NVIDIA.

NVIDIA GeForce GTX 560 Ti: конструкция и технические характеристики

Новый GeForce GTX 560 Ti примерно на 2 сантиметра длиннее своего предшественника, GeForce GTX 460 1GB, по крайней мере, в эталонном исполнении. Длина новинки составляет 23 сантиметра, что позволит без проблем установить её в большинство мало-мальски просторных корпусов.


Некоторые проблемы могут возникнуть в корпусах с укороченной базой, поскольку разъёмы питания у GeForce GTX 560 Ti расположены с торцевой стороны платы. Если с эталонным дизайном GeForce GTX 460 это не представляло особой проблемы, то здесь лишняя пара сантиметров может стать решающей. Перед покупкой GeForce GTX 560 Ti не помешает убедиться, что в корпусе есть для неё достаточно места.



Демонтаж системы охлаждения не явил нашему глазу каких-то особенных откровений, разве что порадовал крепёж с помощью обычных крестовых винтов, а не вызывающих закономерное раздражение Torx T2, как в конструкции GeForce GTX 570. Надеемся, что он будет использоваться и дальше.

Нельзя сказать, что компоновка печатной платы GeForce GTX 560 Ti претерпела существенные изменения. Один из чипов памяти по-прежнему гордо занимает место по левую сторону от графического процессора, в то время, как остальные семь расположены традиционной буквой "L" сверху и справа. По всей видимости, при разводке новой платы были использованы существенные части эталонного дизайна PCB от GeForce GTX 460. Наибольшие изменения затронули подсистему питания, которая теперь построена по схеме "4+1". С учётом повышенных частот GF114, усиление стабилизатора питания GPU является закономерным шагом со стороны разработчиков.


Сердцем стабилизатора питания графического ядра по-прежнему является контроллер NCP5388 производства ON Semiconductor. За управление питанием памяти отвечает скромный чип Richtek RT8101 , расположенный над дросселями основной силовой системы. Как и его предшественник, GeForce GTX 560 Ti использует для подключения к блоку питания два шестиконтактных разъёма PCIe 1.0 с максимальной рекомендуемой нагрузочной способностью 75 Ватт. Места для установки восьмиконтактного разъёма питания PCIe 2.0 в эталонном дизайне не предусмотрено.


В конструкции NVIDIA GeForce GTX 560 Ti использованы широко распространённые чипы производства Samsung Semiconductor серии K4G10325FE. Их можно встретить хотя бы на борту GeForce GTX 580, а также множества других графических карт. Эти микросхемы GDDR5 имеют ёмкость 1 Гбит (32Мх32), а суффикс HC04 указывает на номинальную частоту 1250 (5000) МГц. В энергосберегающих режимах частота памяти может понижаться сперва до 324 (1296) МГц, а затем, в режиме простоя, до 135 (540) МГц. Память связана с графическим процессором 256 битной шиной и работает на частоте 1002 (4008) МГц, что обеспечивает неплохую пиковую пропускную способность всей подсистемы - 128.3 ГБ/сек.


Внешне новый чип ничем не отличается от GF104 и имеет такие же габариты. По официальным данным NVIDIA, площадь самого кристалла осталась прежней, и составляет 360 квадратных миллиметров, но возможности взглянуть на него нет, поскольку кристалл традиционно для мощных решений этого разработчика прикрыт защитной крышкой-теплораспределителем. Маркировка сообщает, что данный экземпляр, имеющий ревизию А1, был выпущен ещё на 46 неделе прошлого года, в середине ноября, то есть, уже тогда ядро GF114 было поставлено на поток. Средняя цифра 400 свидетельствует о том, что чип прошёл наиболее жёсткий частотный контроль, что естественно, ввиду того, что ядро GeForce GTX 560 Ti должно работать на частотах свыше 800/1600 МГц.


Последняя на момент написания данного обзора версия популярной утилиты GPU-Z пока не очень дружит с GeForce GTX 560 Ti. По понятным причинам она не может отобразить такие параметры, как техпроцесс, площадь кристалла, число транзисторов и дату официального анонса, но пустыми остаются также и поля "DirectX Support" и "Texture Fillrate", а самая нижняя строка ошибочно рапортует об отсутствии поддержки PhysX. Но наиболее важные параметры, такие, как число ALU и тактовые частоты, определяются верно; 1 МГц разницы с официальным значением не следует принимать во внимание.

Дополним сведения тем, что в составе GF114 имеется 64 текстурных процессора, способных на полной скорости осуществлять фильтрацию текстур в формате FP16, поскольку в каждом TMU на один блок адресации текстур приходится четыре блока фильтрации. Правда, такими же возможностями в области работы с текстурами обладал ещё предшественник новинки, чип GF104. Как и у других решений NVIDIA, в режиме декодирования видео высокого разрешения частоты ядра падают до 405/810 МГц, а в режиме простоя опускаются до 51/101 МГц, поэтому в таких режимах от GeForce GTX 560 Ti следует ожидать экономичности на уровне GeForce GTX 460.



Эталонный дизайн GeForce GTX 560 Ti не предусматривает наличия разъёма DisplayPort, хотя сам по себе этот интерфейс чипом поддерживается. Конфигурация разъёмов такая же, как и у старших собратьев по семейству: два порта DVI-I и порт HDMI 1.4a. Весь второй этаж крепёжной планки отдан под прорези для выброса нагретого воздуха за пределы корпуса системы. Количество разъёмов интерфейса MIO ограничено одним, так что собрать конфигурацию SLI более чем с двумя GeForce GTX 560 Ti не получится - это прерогатива старших моделей семейства GeForce 500.

В сравнении с Radeon HD 6000 такой набор коммутационных возможностей смотрится бледно, но, положа руку на сердце, спросим - а многим ли пользователям нужна поддержка одновременно 6 мониторов или возможность подключения дисплеев "цепочкой" по DisplayPort? Основная масса игроков использует один, редко два монитора с интерфейсом DVI, а панели с большой диагональю подключаются по HDMI. С этой точки зрения GeForce GTX 560 Ti действительно можно назвать соответствующим принципу "разумной достаточности". Сам по себе чип поддерживает DisplayPort 1.1, и в будущем, ряд моделей GeForce GTX 560 с нестандартным дизайном наверняка будет оснащён соответствующим разъёмом.



К сожалению, в конструкции эталонной системы охлаждения GeForce GTX 560 Ti команда разработчиков NVIDIA решила не повторять удачную находку с испарительной камерой, столь хорошо зарекомендовавшей себя в системах охлаждения GeForce GTX 580 и 570. В данном же случае используется более консервативная конструкция с круглым центральным радиатором, напоминающим радиаторы боксовых кулеров Intel. С помощью трёх тепловых трубок центральная секция соединяется с двумя дополнительными дугообразными радиаторами. Обдув последних осуществляется за счёт того, что обычный осевой вентилятор дует не только вниз, но и в стороны. Отметим, что часть нагретого воздуха при такой компоновке будет выбрасываться вправо, во внутреннее пространство корпуса.



Основание системы охлаждения выглядит вполне обычно. Алюминиевая рама служит теплоотводом для микросхем памяти и силовых элементов подсистемы питания, для чего в соответствующих местах предусмотрены выступы, снабжённые эластичными термопрокладками. В месте контакта медного основания главного радиатора с крышкой GPU нанесён слой густой серой термопасты.

На наш взгляд, такая конструкция системы охлаждения выглядит странно, особенно с учётом чрезвычайно удачных кулеров, которым оснащаются старшие модели семейство GeForce 500. Мы не представляем, что могло помешать инженерам NVIDIA применить испарительную камеру и в кулере GeForce GTX 560 Ti, возможно, более высокая себестоимость такой системы. Тем не менее, следует воздержаться от необоснованной критики и проверить, как описанная конструкция поведёт себя на практике.

Уровень энергопотребления, тепловой режим, шумность и разгон

Несмотря на существенно возросшие тактовые частоты GF114, NVIDIA заявляет лишь о незначительном повышении TDP - со 160 до 170 Ватт. Исходя из того, что уровень тепловыделения напрямую зависит от уровня энергопотребления, логично было бы предположить, что и уровень энергопотребления GeForce GTX 560 Ti если и повысился, то столь же незначительно. Мы не преминули проверить это предположение на практике, проведя стандартный цикл электрических испытаний новинки на хорошо знакомом нашим читателям стенде, имеющем следующую конфигурацию.

Процессор Intel Core 2 Quad Q6600 (3 ГГц, 1333 МГц FSB x 9, LGA775)
Системная плата DFI LANParty UT ICFX3200-T2R/G (ATI CrossFire Xpress 3200)
Память PC2-1066 (2x2 ГБ, 1066 МГц)
Блок питания Enermax Liberty ELT620AWT (Номинальная мощность 620 Ватт)
Microsoft Windows 7 Ultimate 64-bit
CyberLink PowerDVD 9 Ultra/"Serenity" BD (1080p VC-1, 20 Мбит)
Crysis Warhead
OCCT Perestroika 3.1.0

Данная платформа оснащена специальным измерительным модулем, описанным в обзоре "Энергопотребление компьютеров: так сколько нужно ватт? ". Его использование позволяет получить наиболее полные данные об электрических характеристиках современных графических карт в различных режимах. Как обычно, для создания нагрузки на видеоадаптер в различных режимах были использованы следующие тесты:

CyberLink PowerDVD 9: FullScreen, аппаратное ускорение включено
Crysis Warhead: 1600x1200, FSAA 4x, DirectX 10/Enthusiast, карта "frost"
OCCT Perestroika GPU: 1600x1200, FullScreen, Shader Complexity 8

Для каждого режима, за исключением симуляции предельной нагрузки в OCCT, замеры проводились в течение 60 секунд; во избежание выхода карты из строя вследствие перегрузки цепей питания, для теста OCCT: GPU время тестирования было ограничено 10 секундами. В результате проделанных измерений были получены следующие результаты:















Разумеется, даром увеличение количества активных функциональных блоков и существенный прирост тактовых частот не прошли, и в режиме 3D пиковый уровень энергопотребления GeForce GTX 560 Ti вырос до 160 Ватт, в то время, как аналогичный показатель GeForce GTX 460 1GB составлял около 140 Ватт. Однако, это приемлемая плата за столь серьёзное улучшение технических характеристик. А в режиме "рабочего стола" экономичность новинки даже выросла. Как обычно, в случае, когда задействован видеопроцессор, карта снижает тактовые частоты не сразу, но тестовая установка фиксирует пиковый результат, в то время, как средний составляет примерно 18-25 Ватт. Отдельно надо отметить, что при одновременном подключении двух мониторов с разными разрешениями, GeForce GTX 560 Ti не переходит во второй экономичный режим с частотами ядра 51/101 МГц, а ограничивается первым, в котором они составляют 405/810 МГц.

Интересно, что в экономичных режимах основная нагрузка приходится на нижний разъём, обозначенный на диаграммах, как "12V 6-pin", а вот при использовании всех мощностей графического процессора нагрузка выравнивается, и через каждый разъём протекает ток порядка 5.5-5.9 Ампер. Иными словами, при напряжении 12 Вольт нагрузка на разъёмы питания не превышает 70 Ватт, так что необходимости использования в конструкции GeForce GTX 560 Ti восьмиконтактных разъёмов питания PCIe 2.0 с повышенной нагрузочной способностью действительно нет.

Как и старшие модели семейства, эталонная версия GeForce GTX 560 Ti умеет отслеживать протекающий по 12-вольтовым линиям питания ток, и в случае обнаружения аномально высоких показателей, характерных для таких тестов, как OCCT: GPU или FurMark, защищает сама себя от выхода из строя путём перевода графического процессора в режим пониженной производительности. Эта система опциональна, и в версиях GeForce GTX 560 Ti, использующих отличный от эталонного дизайн печатной платы, может не использоваться. Работа защитного механизма хорошо видна на вышеприведённой диаграмме потребления в тесте OCCT:GPU - график демонстрирует характерную "гребёнку", хотя и менее глубокую, нежели в случае с GeForce GTX 580 или GeForce GTX 570.

Мы считаем использование таких защитных механизмов оправданным шагом со стороны производителей, поскольку нереалистичные сценарии нагрузки, создаваемые тестами типа FurMark, действительно могут вывести графическую карту из строя, и такие случаи нам известны. Любителям стресс-тестов можно лишь порекомендовать на свой страх и риск воспользоваться специальными опциями, как, например, в GPU-Z ; наверняка, разработчики этой утилиты реализуют аналогичную возможность и для GeForce GTX 560 Ti.



В целом, новый GeForce GTX 560 Ti в плане энергопотребления в различных режимах смотрится вполне конкурентоспособно на фоне соперников. Конечно, он не столь экономичен, как Radeon HD 6870, однако, он обещает быть и существенно быстрее в играх. Более того, новинка весьма достойно выглядит даже в сравнении с Radeon HD 6950, так что разработчиков GF114 остаётся лишь похвалить за проделанную работу. С точки зрения экономичности GeForce GTX 560 Ti продолжает добрую традицию, заложенную с выпуском GeForce GTX 580, заключающуюся в значительном увеличении производительности при несущественном повышении уровня энергопотребления.



Для проверки температурного режима мы использовали второй эталонный экземпляр GeForce GTX 560 Ti, не подвергавшийся разборке, и, следовательно, сохранивший оригинальный термоинтерфейс. При температуре воздуха в помещении тестовой лаборатории, составлявшей 25-27 градусов Цельсия, новинка продемонстрировала такие же тепловые показатели, как и GeForce GTX 570. Под нагрузкой температура графического процессора не превысила 78 градусов Цельсия. С учётом тактовых частот GeForce GTX 560 Ti, это является весьма впечатляющим показателем, доказывающим, что использованная разработчиками конструкция системы охлаждения хорошо справляется со своей работой.


К счастью, первоначальные опасения насчёт повышенного уровня шума не подтвердились. В режимах 2D и 3D карта шумит практически одинаково, поскольку в первом случае вентилятор работает на 40 % от максимальной скорости, а во втором скорость не растет выше 45 %, несмотря на использование в качестве нагрузки Crysis Warhead. Шумомер едва фиксирует изменения в уровне шума, да и то, лишь на расстоянии 5 сантиметров от работающей системы. На расстоянии 1 метра уровень шума лишь на 1 дБА превышает эталонный показатель, в наших условиях составляющий 38 дБА. При таких шумовых характеристиках неудивительно, что карту не слышно на фоне шума, издаваемого другими компонентами работающей тестовой системы. Надо сказать, что наша тестовая платформа не относится к числу самых тихих, так что в иных условиях GeForce GTX 560 Ti может вести себя и не столь бесшумно. Но, в любом случае, новинка обладает тихим нравом, что особенно оценят игроки, любящие, когда на звуковое сопровождение игры не накладываются посторонние шумы.

Как и его старшие собратья по семейству, GeForce GTX 560 Ti продемонстрировал великолепную сбалансированность электрических, акустических и тепловых характеристик. Теперь перед ним стоит самая сложная задача: достойно показать себя в боевых условиях.

Конфигурация тестовых платформ и методология тестирования

Тестирование GeForce GTX 560 Ti в современных играх было проведено на универсальной тестовой платформе, имеющей следующую конфигурацию:

Процессор Intel Core i7-975 Extreme Edition (3.33 ГГц, 6.4 GT/s QPI)
Кулер Scythe SCKTN-3000 "Katana 3"
Системная плата Gigabyte GA-EX58-Extreme (Intel X58)
Память Corsair XMS3-12800C9 (3x2 ГБ, 1333 МГц, 9-9-9-24, 2Т)
Жесткий диск Samsung Spinpoint F3 (1 ТБ/32 МБ, SATA II)
Блок питания Ultra X4 850W Modular (Номинальная мощность 850 Ватт)
Монитор Dell 3007WFP (30”, максимальное разрешение 2560x1600@60 Гц)
Microsoft Windows 7 Ultimate 64-bit

Использовались следующие версии драйверов ATI Catalyst и NVIDIA GeForce:

ATI Catalyst 11.1a hotfix для ATI Radeon HD
NVIDIA GeForce 266.56 для NVIDIA GeForce GTX 560 Ti

Сами драйверы были настроены следующим образом:

ATI Catalyst:

Anti-Aliasing: Use application settings/4x/Standard Filter
Morphological filtering: Off
Tesselation: Use application settings
Texture Filtering Quality: High Quality
Enable Surface Format Optimization: Off
Wait for vertical refresh: Always Off
Anti-Aliasing Mode: Adaptive Multi-sample AA

NVIDIA GeForce:

Texture filtering – Quality: High quality
Vertical sync: Force off
Antialiasing - Transparency: Multisampling
CUDA - GPUs: All
Set PhysX configuration: Auto-select
Ambient Occlusion: Off
Остальные настройки: по умолчанию

В состав тестового пакета вошли следующие игры и приложения:

Трехмерные шутеры с видом от первого лица:

Aliens vs. Predator (1.0.0.0, Benchmark)
Battlefield: Bad Company 2 (1.0.1.0, Fraps)
Call of Duty: Black Ops (1.04, Fraps)
Crysis Warhead (1.1.1.711, Benchmark)
Metro 2033 (Ranger Pack, 1.02, Benchmark)
S.T.A.L.K.E.R.: Call of Pripyat (1.6.02, Fraps)


Трехмерные шутеры с видом от третьего лица:

Just Cause 2 (1.0.0.1, Benchmark/Fraps)
Lost Planet 2 (1.1, Benchmark)


RPG:

Fallout: New Vegas (1.20, Fraps)
Mass Effect 2 (1.01, Fraps)


Симуляторы:

F1 2010 (1.01, Fraps)


Стратегические игры:

BattleForge (1.2, Benchmark)
StarCraft II: Wings of Liberty (1.0.2, Fraps)


Полусинтетические и синтетические тесты:

Futuremark 3DMark Vantage (1.0.2.1)
Futuremark 3DMark 11 (1.0.0)
Final Fantasy XIV Official Benchmark (1.0.0.0, Fraps)
Unigine Heaven Benchmark (2.1)
Tom Clancy"s H.A.W.X. 2 Benchmark (1.01, Benchmark/Fraps)

Каждая из входящих в набор тестового программного обеспечения игр была настроена таким образом, чтобы обеспечивать максимально возможный уровень детализации. В приложениях, поддерживающих тесселяцию, эта возможность была задействована.

Принципиальный отказ от ручной модификации каких-либо конфигурационных файлов означает, что для настройки использовались исключительно средства, доступные в самой игре любому непосвящённому пользователю. Тестирование проводилось в разрешениях 1600х900, 1920х1080 и 2560х1600. За исключением отдельно оговоренных случаев, стандартную анизотропную фильтрацию 16х дополняло сглаживание MSAA 4x. Активация сглаживания осуществлялась либо средствами самой игры, либо, при их отсутствии, форсировалась с помощью соответствующих настроек драйверов ATI Catalyst и NVIDIA GeForce.

Помимо NVIDIA GeForce GTX 560 Ti, в тестировании приняли участие следующие графические карты:

NVIDIA GeForce GTX 460 1GB
NVIDIA GeForce GTX 570
ATI Radeon HD 6950
ATI Radeon HD 6870

Для получения данных о производительности использовались встроенные в игру средства тестирования с обязательным применением оригинальных тестовых роликов, а также, по возможности, фиксацией данных о минимальной производительности. В отдельных случаях для получения информации о минимальной производительности дополнительно применялась тестовая утилита Fraps 3.2.7. В случае отсутствия вышеупомянутых средств применялась эта же утилита в ручном режиме с трёхкратным тестовым проходом, фиксацией минимальных значений и последующим усреднением финального результата.

Игровые тесты: Aliens vs. Predator


Новинка начинает с того, что оставляет позади Radeon HD 6870 в низких разрешениях, и там же уступает Radeon HD 6950 лишь около 5 %. В разрешении 1920х1080 отставание от Radeon HD 6950 возрастает до 14 %, а средняя производительность становится практически такой же, как у Radeon HD 6870. Однако, тут обнаруживается приятный для поклонников продукции NVIDIA нюанс - минимальная производительность у GeForce GTX 560 Ti не опускается ниже 24 кадров в секунду, поэтому играть в режиме Full HD можно ничуть не хуже, нежели используя более дорогой Radeon HD 6950, причём, при заметно меньших затратах на покупку видеокарты.

Игровые тесты: Battlefield: Bad Company 2


Уже во втором тесте GeForce GTX 560 Ti на равных сражается с Radeon HD 6950, причём, весьма успешно. Новинка добивается паритета в разрешении 2560х1600, а в более низких разрешениях даже опережает своего соперника из более тяжёлой "весовой категории". Что немаловажно, ей удаётся поддерживать комфортный уровень производительности во всех режимах.

Игровые тесты: Call of Duty: Black Ops


Интересно, что с использованной в тестировании версией драйверов AMD Catalyst, показали Radeon HD 6950 ненамного выше, нежели у Radeon HD 6870, что отчасти может быть обусловлено и меньшей эффективностью шейдерных процессоров Cayman, имеющих архитектуру VLIW4. Так или иначе, GeForce GTX 560 Ti легко может составить конкуренцию обоим соперникам из стана AMD, уступая им, разве что, в минимальной производительности, да и то не фатально - 66 кадров в секунду хватит даже самому требовательному игроку.

Игровые тесты: Crysis Warhead


А вот и первое разочарование. Поражением это назвать нельзя, особенно, учитывая разницу в цене с Radeon HD 6950, однако, факт остаётся фактом: в разрешении 1920х1080 новый GeForce GTX 560 Ti уже не может обеспечить приемлемого уровня минимальной производительности, хотя и опережает по этому показателю Radeon HD 6870. Зато, в отличие от последнего, новинка отлично выглядит в разрешении 1600х900. Здесь с ней действительно может поспорить лишь более дорогой Radeon HD 6950.

Игровые тесты: Metro 2033



Наличие восьми блоков тесселяции не спасает GeForce GTX 560 Ti от поражения при сравнении минимальной производительности, однако, средние показатели новинки лишь немногим хуже, нежели демонстрируемые Radeon HD 6950, и заметно лучше результатов, показанных в этом тесте Radeon HD 6870. Наиболее сильный отрыв от соперника наблюдается в разрешении 1600х900, но в более ресурсоёмких режимах решению AMD удаётся сократить отставание до минимума. Возможно, это заслуга более производительной подсистемы памяти.

Игровые тесты: S.T.A.L.K.E.R.: Call of Pripyat

Игра тестируется с включенной тесселяцией.


Теоретически, у GeForce GTX 560 Ti есть преимущество при выполнении тесселяции, но, по крайней мере, в данном тесте, два блока тесселяции третьего поколения на борту Radeon HD 6950 показывают себя не хуже. Но не стоит забывать о цене: будучи почти на 50 долларов дешевле, новое решение NVIDIA легко спорит на равных с Radeon HD 6950 в разрешении 1600х900 и обеспечивает сопоставимый уровень субъективного комфорта в разрешении 1920х1080. Свою цену GeForce GTX 560 Ti отрабатывает сполна.

Игровые тесты: Just Cause 2


Разница в производительности между двумя поколениями Radeon HD 6000 вновь минимальна, и GeForce GTX 560 Ti успешно конкурирует с обоими, обеспечивая комфортную производительность в разрешениях вплоть до 1920х1080 или 1920х1200 включительно. А вот для игры в 2560х1600 понадобится уже решение уровня GeForce GTX 580, имеющее совсем другую цену.

Игровые тесты: Lost Planet 2


Radeon HD 6950 разгромлен более дешёвым GeForce GTX 560 Ti наголову. Если в разрешении 2560х1600 решение AMD ещё пытается сопротивляться за счёт резервов в производительности текстурной подсистемы и подсистемы памяти, то в менее критичных к этим параметрам режимах преимущество новинки NVIDIA может достигать 30-36%! Что более важно, производительность GeForce GTX 560 Ti достаточно высока для использования разрешения 1920х1080, несмотря на требовательность данной игры.

Игровые тесты: Fallout: New Vegas


Сказать что-либо о производительности GeForce GTX 560 Ti в Fallout: New Vegas сложно. Игра слишком проста для любой достаточно мощной современной графической карты. Можно лишь отметить несущественное отставание от Radeon HD 6950 и столь же несущественное превосходство над Radeon HD 6870 в разрешении 2560х1600.

Игровые тесты: Mass Effect 2

В этом тесте полноэкранное сглаживание форсируется с использованием методики, описанной в обзоре Игра Mass Effect 2 и современные видеокарты .


Победа новинки не столь убедительна, как в Lost Planet 2, но в разрешении 1600х900 GeForce GTX 560 Ti доминирует над обоими моделями Radeon HD 6000, участвующими в сегодняшнем тестировании. В более высоких разрешениях герой данного обзора, как минимум, не уступает более дорогому Radeon HD 6950, так что AMD остаётся только обеспокоиться и всерьёз задуматься о снижении цен на решения на базе ядра Cayman.

Игровые тесты: F1 2010


Нельзя быть победителем во всём, и GeForce GTX 560 Ti подтверждает этот тезис. В данном тесте новинка конкурирует только с Radeon HD 6870. Но, во-первых, именно на конкуренцию с Radeon HD 6870 это решение NVIDIA и нацелено изначально, во-вторых, заметное отставание наблюдается только в разрешении 2560х1600, и, наконец, в третьих, даже в этом разрешении производительность остаётся достаточно комфортной, хотя требовательным любителям жанра гоночных автосимуляторов 30 кадров в секунду может оказаться недостаточно.

Игровые тесты: BattleForge


Пополнение семейства GeForce 500 поддерживает традицию обеспечения высокой минимальной производительности. Правда, с разрешением 2560х1600 GeForce GTX 560 Ti справляется уже не так хорошо, как GeForce GTX 570, однако, на фоне показателей Radeon HD 6870 или Radeon HD 6950 и 18 кадров в секунду выглядят настоящим откровением, тем более, что по субъективным ощущениям, в эту игру можно играть даже при низкой минимальной производительности.

Игровые тесты: StarCraft II: Wings of Liberty


В StarCraft II новинке NVIDIA не хватило сил достойно справиться с разрешением 2560х1600, но в средней производительности она всё же опередила своего прямого соперника в лице Radeon HD 6870. Надо сказать, что и Radeon HD 6950 в этом режиме не хватает с неба звёзд, но всё же, уровень субъективного комфорта, обеспечиваемый им, существенно выше. Правда, за большую цену. В более низких разрешениях GeForce GTX 560 Ti проявил себя очень хорошо. Если ваш монитор поддерживает разрешение до 1920х1200 включительно и вы любите StarCraft II, переплачивать за Radeon HD 6950 нет никакого смысла.

Полусинтетические и синтетические тесты: Futuremark 3DMark Vantage

Чтобы минимизировать влияние центрального процессора, при тестировании в 3DMark Vantage применяется профиль “Extreme”, использующий разрешение 1920х1200, FSAA 4x и анизотропную фильтрацию. Для полноты картины производительности, результаты отдельных тестов снимаются во всем диапазоне разрешений.



Как и ожидалось, GeForce GTX 560 Ti опередил Radeon HD 6870, но ему не хватило 1045 очков до уровня Radeon HD 6950. Для ценовой категории, к которой относится новинка, 9519 очков - очень хороший показатель.




В отдельных тестах видно, что в разрешении 1600х900 новый GeForce GTX 560 Ti если и уступает Radeon HD 6950, то совсем незначительно, но с ростом разрешения последний берёт реванш за счет более производительных подсистем текстурных процессоров и видеопамяти. Radeon HD 6870 новинка не проиграла ни разу.

Полусинтетические и синтетические тесты: Futuremark 3DMark 11

В новом тестовом пакете Futuremark мы также применяем профиль "Extreme", однако, в отличие от 3DMark Vantage, в 3DMark 11 он использует разрешение 1920х1080.



Примерно такая же картина, как в 3DMark Vantage, наблюдается и в 3DMark 11, за исключением того, что сам порядок величин в новой версии 3DMark другой. Своему прямому сопернику GeForce GTX 560 Ti не уступил, а состязаться на равных в синтетических тестах с более дорогим Radeon HD 6950 он и не обязан.

Полусинтетические и синтетические тесты: Final Fantasy XIV Official Benchmark

Тест поддерживает только разрешения 1280х720 и 1920х1080.



Результат Radeon HD 6950 в разрешении 1280х720 неожиданно низок. В этом можно винить как новую архитектуру шейдерных процессоров, так и недоработки в драйверах. GeForce GTX 560 Ti выступает достойно в обоих разрешениях, демонстрируя показатели на уровне Radeon HD 6950.

Полусинтетические и синтетические тесты: Tom Clancy"s H.A.W.X. 2 Preview Benchmark

Данный тест активно использует тесселляцию для отрисовки поверхности земли. Количество полигонов в кадре может достигать полутора миллионов.


Ещё один тест, где архитектура Fermi чувствует себя, как дома. Состязаться с GeForce GTX 560 Ti могут лишь старшие собратья по семейству, но не Radeon HD 6950 или даже Radeon HD 6970. Вероятно, ситуацию сможет переломить лишь Radeon HD 6990, но если это и случится, то победа будет поистине пирровой, ибо о разнице в ценах между ним и GeForce GTX 560 Ti страшно даже подумать.

Полусинтетические и синтетические тесты: Unigine Heaven benchmark

В тесте используется режим тесселяции "normal".


Производительность на уровне Radeon HD 6950 - отличный результат для GeForce GTX 560 Ti, особенно с учётом ценовой категории, к которой последний относится, но всё же, в этом тесте, активно использующем тесселяцию, от GF114, вооружённого восемью движками PolyMorph, мы ожидали большего.

Заключение

Новый NVIDIA GeForce GTX 560 Ti не разочаровал: его вполне можно назвать достойным пополнением семейства GeForce 500. Более того, титул "оружие массового поражения", на наш взгляд, неплохо характеризует новинку. И неудивительно - при том, что рекомендуемая цена GeForce GTX 560 Ti cоставляет всего 249 долларов, он способен бороться на равных не только с Radeon HD 6870, против которого изначально и был нацелен, но и с более мощным и дорогим Radeon HD 6950!

По сути, новый GeForce GTX 560 Ti сделал то же самое с GeForce GTX 470, что ранее GeForce GTX 570 сделал с GeForce GTX 480. Что при этом произойдёт с GeForce GTX 460 1GB, пока точно сказать невозможно. Не исключено, что он будет заменён новым решением на базе GF114 с усечённой конфигурацией и без приставки "Ti" в названии, а на смену GeForce GTX 460 768MB придёт GeForce GTS 550 на базе ядра GF116.

Рассматривая вопрос о производительности новинки детально, нельзя однозначно сказать, что GeForce GTX 560 Ti опережает Radeon HD 6950 во всех тестах: всё же, ядро Cayman изначально предназначено для решений более высокого класса. Однако, полученные результаты весьма и весьма впечатляют:

В частности, в разрешении 1600х900 новинке удалось выиграть у соперника из более тяжёлой весовой категории в десяти тестах из восемнадцати, а среднее преимущество над Radeon HD 6870 составило почти 20 %. И хотя карты такого класса, как правило, покупают для использования в более высоких разрешения, это очень хорошее начало.

Разрешение 1920х1080 является на сегодня самым популярным из-за повсеместного торжества формата Full HD. Здесь GeForce GTX 560 Ti тяжелее сражаться с Radeon HD 6950, поскольку последний оснащён более быстрой памятью и располагает 88 текстурными процессорами. Однако, без боя новинка не сдаётся, и ей удаётся сравнять счёт или выйти в лидеры в восьми игровых тестах, а серьёзно проиграть лишь в четырёх: в Alien vs. Predator, S.T.A.L.K.E.R.: Call of Pripyat, Mass Effect 2 и F1 2010 . Итоговый список поединков с Radeon HD 6870 и вовсе состоял бы из одних побед и ничьих, если бы не F1 2010 . В среднем, своего прямого соперника GeForce GTX 560 Ti опережает на 15 %, а максимальное превосходство может достигать и весьма внушительных 60 %!

В разрешении 2560х1600 карты уровня GeForce GTX 560 Ti или Radeon HD 6870, стоимость которых не превышает 250 долларов, как правило, не используются. Это уже вотчина решений, чья стоимость начинается от 300 долларов. Вполне закономерно, что здесь GeForce GTX 560 Ti в большинстве тестов проигрывает Radeon HD 6950, однако, превосходство над Radeon HD 6870 он сохраняет, хотя в среднем оно и падает до 12-13 %.

Подведя итоги, мы можем сказать, что новое массовое решение NVIDIA получилось очень и очень удачным. При своих скоростных характеристиках и цене, всего на 10 долларов превышающей официальную стоимость Radeon HD 6870, оно не оставляет последнему ни единого шанса. Неудивительно, что графическое подразделение Advanced Micro Devices всерьёз обеспокоено столь агрессивным ходом со стороны NVIDIA, и в качестве ответного удара планирует снизить цены на Radeon HD 6870, а также представить на рынок новый, более дешёвый вариант Radeon HD 6950, оснащённый 1 ГБ локальной видеопамяти. Иными способами бороться с GeForce GTX 560 Ti практически невозможно: он однозначно выигрывает у Radeon HD 6950 2GB в стоимости, но далеко не всегда проигрывает ему в производительности в реальных играх.

На сегодняшний день GeForce GTX 560 Ti вполне можно признать лучшим игровым решением стоимостью до 250 долларов. Свою цену он отрабатывает сполна, и лучшего выбора для тех, кто не желает вкладываться в решения класса GeForce GTX 570 или Radeon HD 6970, в настоящее время не существует. Насколько конкурентоспособной окажется удешевлённая версия Radeon HD 6950, покажет время.

GeForce GTX 560: достоинства и недостатки

Достоинства:

Лучшая производительность в своём классе
В ряде тестов соперничает с Radeon HD 6950 2GB
Высокая производительность при выполнении тесселяции
Широкий выбор режимов FSAA
Минимальное влияние FSAA на производительность
Полноценная аппаратная поддержка декодирования HD-видео
Качественный постпроцессинг и масштабирование HD-видео
Поддержка эксклюзивных технологий NVIDIA PhysX и NVIDIA 3D Vision
Широкий выбор GPGPU приложений, разработанных для NVIDIA CUDA
Низкий уровень шума
Высокая эффективность системы охлаждения

Недостатки:

Серьёзных не обнаружено

Череда неудач, которая преследовала компанию NVIDIA на протяжении практически всего 2010 года, судя по всему, наконец прервана. Глубокий редизайн графического ядра GF100 позволил NVIDIA выпустить на рынок пару достаточно мощных ускорителей, благодаря которым чипмейкер смог вернуть себе титул абсолютного чемпиона в классе одночиповых решений старшего уровня. Публика, интересующаяся ситуацией на рынке видеокарт, ожидала молниеносного и сокрушительного ответа со стороны «красного гиганта» — компании AMD, однако, полноценного ответа не получилось. Изменения архитектуры, внедрение новых технологий и рост тактовых частот не помог AMD подготовить продукт, способный разделаться с GeForce GTX 580. Ускоритель Radeon HD 6970, являющийся старшим представителем в линейке однопроцессорных видеокарт AMD, способен противостоять лишь GeForce GTX 570. Однако сильная позиция в верхнем сегменте рынка ни в коем случае не означает для NVIDIA полную победу. Мы с вами помним, что основная масса покупателей выбирает золотую середину или вовсе бюджетные решения, так что у NVIDIA есть над чем работать, впрочем, как и AMD. И такая работа, безусловно, ведётся. Например, ближе к концу прошлого года AMD представила свои ускорители серии Radeon HD 6850/6870, которые, судя по результатам наших тестов, продемонстрировали весьма неплохие показатели производительности в своём классе. Ну а сегодня пришло время делать ответный ход компании NVIDIA, итак, на арене — ускоритель GeForce GTX 560 Ti.

Невольно вспоминаются времена видеокарт GeForce 2/3, ведь именно тогда в названиях своих продуктов компания NVIDIA впервые начала использовать постфикс Ti, означающий Titanium (Титан). Старый-новый термин не только добавляет благозвучности названию, он должен ассоциироваться у потенциального покупателя с надёжностью и высокой производительностью продукта. Итак, что на сей раз приготовила NVIDIA? Давайте рассмотрим особенности новинки более подробно.

Сердцем нового ускорителя GeForce GTX 560 Ti стал видеопроцессор GF114, который, по сути, представляет собой существенно упрощённую модификацию старшего GPU семейства Fermi. При этом, в отличие от GeForce GTX 460, на смену которому приходит GTX 560 Ti, чип GF114 является производной GF110, а не GF100, как GTX 460. Для сравнения конфигураций функциональных блоков современных GPU NVIDIA, а также для ознакомления с характеристиками эталонных версий видеокарт на их основе предлагаем вашему вниманию сравнительную таблицу:

GTX 460 GTX 470 GTX 480 GTX 560 Ti GTX 570 GTX 580
Техпроцесс GPU, нм 40 40 40 40 40 40
Кластеры обработки графики, шт. 2 4 4 2 4 4
Кол-во потоковых мультипроцессоров 8 14 15 8 15 16
Кол-во ядер CUDA 336 448 480 384 480 512
Кол-во текстурных блоков 64 56 60 64 60 64
Кол-во блоков ROP 32 40 48 32 40 48
Частота GPU, МГц 675 607 700 822 732 772
Частота ядер CUDA, МГц 1350 1215 1401 1644 1464 1544
Эффективная частота видеопамяти, МГц 3600 3348 3696 4008 3800 4008
Тип видеопамяти GDDR-5 GDDR-5 GDDR-5 GDDR-5 GDDR-5 GDDR-5
Объём видеопамяти, Мбайт 1024 1280 1536 1024 1280 1536
Ширина шины памяти, бит 256 320 384 256 320 384
Пропускная способность памяти, Гбайт/с 115.2 133.9 177.4 128.3 152 192.4
Поддержка DirectX 11 11 11 11 11 11
Максимальная TDP, Вт 160 215 250 170 219 244
Рекомендованная мощность БП, Вт 450 550 600 500 550 600
Предельная температура GPU, °C 104 105 105 100 97 97
Ориентировочная стоимость в магазинах Москвы, руб. 6000 7800 12000 9999 12100 17500

Архитектура GPU GF104

Итак, в составе GPU GeForce GTX 560 Ti содержатся два кластера GPC (Graphics Processing Clusters), которые, в свою очередь, состоят из 8 потоковых мультипроцессоров (Streaming Multiprocessors или SM), по 4 на каждый GPC. Конфигурация SM аналогична используемой в GeForce GTX 460. Всего ядро GF114 содержит 384 ядер CUDA (по 48 на SM), четыре блока диспетчеризации, 8 текстурных блоков и по одному блоку специальной функциональности (SF Unit) на каждый потоковый мультипроцессор. Ширина шины памяти GeForce GTX 560 Ti составляет 256 бит. Как и предшественник на ядре GF104, новый GTX 560 Ti поддерживает вывод сигнала в формате Dolby True HD и DTS-HD Master Audio через HDMI. По сути, новый GF114 есть не что иное, как заметно ускоренный GF104 с ещё одним активированным потоковым мультипроцессором. Работа на столь высокой частоте стала возможной благодаря серьёзной “транзисторной” модернизации графического ядра, аналогичной той, что инженеры NVIDIA проделали в случае с GF110. Ещё одним отличием новых ускорителей стала более высокая частота памяти в сравнении с GTX 460, что, естественно, положительным образом сказалось на пропускной способности памяти.

Относительная простота чипа GF114, а также те модификации, которые провела NVIDIA для увеличения частотного потенциала, безусловно, понравятся не только энтузиастам, но и тем, кто хочет получить энергоэффективный продукт.

Судя по презентации NVIDIA, новый ускоритель получился не только быстрее GeForce GTX 460, но и обладает лучшим соотношением производительности на ватт, в том числе в сравнении с некоторыми решениями конкурента. Безусловно, это нам ещё предстоит проверить, но одно ясно уже сейчас: появление разогнанных продуктов с модифицированной системой питания GPU и памяти не за горами, благо, характеристики новых видеокарт к этому располагают.

Список поддерживаемых технологий по сравнению с другими современными решениями NVIDIA не изменился. Новинка поддерживает фирменные технологии NVIDIA: CUDA, PhysX, Surround, 3DVision и другие.

Помимо технической информации, важным фактором является стоимость. По данным NVIDIA, рекомендованная розничная цена ускорителей GeForce GTX 560 Ti составляет 9 999 рублей. Если предположить, что отечественные продавцы удержат стоимость видеокарт этой серии в указанных пределах, то в качестве конкурентов для GTX 560 Ti стоит рассматривать:

  • GeForce GTX 470 (стоимостью в рознице порядка 8 000 рублей)
  • Radeon HD 6870 (стоимостью в рознице порядка 8 000 рублей)
  • Radeon HD 5870 (стоимостью в рознице порядка 9 500-10000 рублей)
  • Radeon HD 6950 (стоимостью в рознице порядка 10 500 рублей)

Какова будет расстановка сил — покажет тестирование, а мы переходим к знакомству с эталонным образцом GeForce GTX 560 Ti.

Дизайн системы охлаждения (СО) GeForce GTX 560 Ti можно назвать типичным для нового поколения графических ускорителей NVIDIA. Чёрный глянец кожуха СО добавляет внешнему виду ускорителя солидности. Длина эталонного образца GeForce GTX 560 Ti составляет чуть менее 23 см, а значит, проблем с размещением ускорителя в компактных корпусах быть не должно.

Для питания GeForce GTX 560 Ti требуется подключение двух шестиконтактных разъёмов питания PCI-Express.

На торцевой панели помимо отверстий, через которые горячий воздух выходит за пределы корпуса, располагаются два разъёма Dual Link DVI-I, а также один порт Mini-HDMI.

Демонтаж системы охлаждения не вызывает трудностей. Кулер контактирует с элементами системы питания и видеопамятью через специальные термопрокладки, а тепло графического процессора передается на медное основание СО через тонкий слой термопасты.

Разбираем кулер. Под кожухом скрывается система охлаждения, состоящая из металлической пластины, на которую отводится тепло от видеопамяти и элементов системы питания, и отвечающая за охлаждение GPU конструкция, состоящая из медного основания, припаянного к нескольким радиаторам. Тепло от основания переносят три тепловые трубки диаметром 6 мм, они же равномерно распределяют его по поверхности радиаторов, расположенных по бокам от центрального.

В некоторых случаях, при модернизации видеосистемы пользователи оставляют приобретённые отдельно кулеры, чтобы потом установить их на новую видеокарту. Если вы так и собираетесь сделать, то наверняка информация о расстоянии между монтажными отверстиями вокруг GPU окажется для вас полезной. Для удобства мы пронумеровали отверстия вокруг GPU GF114.

  • Расстояние между центрами отверстий 1 и 3 составляет 6,0 см
  • Расстояние между центрами отверстий 3 и 6 составляет 5,0 см
  • Расстояние между центрами отверстий 6 и 1 составляет 7,9 см

Система питания ускорителя GeForce GTX 560 Ti имеет следующую схему:

Четыре фазы выделены для GPU и одна фаза — для памяти, как и на GeForce GTX 460. Контроллеры помечены на PCB как U501 для GPU и U5 — для памяти. C большой долей вероятности это ON Semiconductor NCP5388 (или NCP5395) для GPU и Anpec Electronics APW7165 — для памяти.

Чипы памяти произведены компанией Samsung. Маркировка чипов — K4G10325FE-HC04, номинальная частота составляет 5 ГГц (эффективная частота). Несмотря на столь высокую номинальную частоту, память GeForce GTX 560 Ti функционирует на более низкой — 4 ГГц.

На этом мы завершаем изучение конструктивных особенностей ускорителя GeForce GTX 560 Ti и переходим к практическим испытаниям. Прежде чем перейти к результатам тестов, ознакомьтесь со списком тестовых пакетов, а также с конфигурацией тестового стенда.

Век технических устройств в компьютерной индустрии недолговечен, особенно, в отношении графических ускорителей. Требования к GPU у новых игр постоянно растут, видеокарты быстро устаревают. Топовые модели могут послужить несколько лет, и некоторые ветераны еще справляются с современными играми при умеренных настройках графики. Доказательством этому является наше большое тестирование GeForce GTX 580 и Radeon HD 6970 в актуальных приложениях. Теперь мы решили оценить потенциал GeForce GTX 560 Ti в современных играх. Заодно сравним старого представителя среднего класса со свежими решениями бюджетного уровня, чтобы оценить общий прогресс в производительности графических ускорителей.

Как следует из названия статьи, основным конкурентом станет . Также в тестировании присутствует Radeon RX 550 и более старые модели от AMD и NVIDIA. Но для начала необходимо напомнить о характеристиках GeForce GTX 560 Ti.

Честь старой серии видеокарт будет защищать модель референсного дизайна, ранее не попадавшая в наши руки. По стечению обстоятельств через нас прошли множество нереференсных вариантов, кроме самого обычного видеоадаптера. Так что это знакомство со старичком было интересно и в личном плане.

Перед нами самый простой GeForce GTX 560 Ti от Inno3D. Двухслотовый кулер оснащен одним вентилятором.

Под кожухом мы видим радиатор замысловатой конструкции. В центре цельный радиатор с лепестками, по бокам на двух тепловых трубках висят два дополнительных радиаторных блока. Кстати, похожая конструкция использовалось когда-то компанией MSI в серии видеокарт Cyclone .

GeForce GTX 560 Ti базируется на графическом процессоре GF114 архитектуры Fermi. Это первая архитектура NVIDIA под DirectX 11 и второе поколение чипов данного семейства. В отличие от современных решений чип закрыт большой теплораспределительной крышкой. У кулера массивное медное основание, что обеспечивает большую площадь контакта и хороший теплоотвод.

Процессор запитан от четырех фаз. Внешнее питание подводится через два 6-контактных разъема. Заявленный TDP на уровне 170 Вт. Вся линейка Fermi была довольно горячая. И в данном поколении охлаждение часто играло ключевую роль при разгоне.

В соответствии со стандартными спецификациями GPU работает при 823 МГц, но его потоковые процессоры функционируют на удвоенной частоте 1645 МГц. Всего чип насчитывает 384 вычислительных процессора при 64 текстурных блоках и 32 блоках рендеринга ROP. И это близко к характеристикам GeForce GT 1030. У новой ультрабюджетной видеокарты тоже 384 потоковых процессора, но меньше блоков TMU и ROP.

Чип GF114 обладает 256-битной шиной памяти. Сами модули памяти работают при эффективной частоте 4 ГГц. Объем памяти по нынешним меркам мал — GeForce GTX 560 Ti оснащались 1 ГБ. И малый объем памяти может сыграть роль бутылочного горлышка в ряде игр.

В качестве небольшой иллюстрации температурного режима ниже приведено два скриншота мониторинга параметров во время игровых тестах. Ядро греется до 77-80 °С, а вентилятор раскручивается до 2100-2250 об/мин.

В плане разгона данный экземпляр показал вполне заурядные результаты. Ядро удалось разогнать до 918 МГц (шейдерный домен 1836 МГц), память работала на 4698 МГц. На топовых версиях мы достигали более высоких частот, что обеспечивалось мощным охлаждением и улучшенным дизайном PCB. В данном случае для разгона пришлось выкручивать вентилятор на максимальные обороты.

Участники тестирования

Полный список соперников в сравнительном тестировании таков:

  • GeForce GTX 750 Ti 2GB;
  • GeForce GTX 750 1GB;
  • GeForce GT 1030 2 GB;
  • Radeon R7 260 1GB;
  • Radeon RX 550 4GB.

Самым мощным решением из данного списка является GeForce GTX 750 Ti, и эта карта протестирована только в номинале. Остальные участники протестированы при стандартных частотах и в разгоне.

Главным конкурентом станет GeForce GT 1030 в лице видеокарты ASUS PH-GT1030-O2G .

Интересно будет сравнить GeForce GTX 560 Ti и с GeForce GTX 750. Эти видеоадаптеры оснащены идентичным объемом памяти в 1 ГБ и находятся в одинаковых условиях.

Подробнее о Radeon RX 550 можно узнать из данного обзора . Этот конкурент оснащен максимальным объемом памяти, что может обеспечить некоторые преимущества в отдельных тестах.

Детальные технические характеристики видеокарт приведены ниже. В таблице указаны официальные данные по частотам Boost для GeForce, на графиках производительности указан полный диапазон частот, включая кратковременные пиковые значения.

Видеоадаптер GeForce GTX 750 Ti GeForce GTX 750 GeForce GTX 560 Ti Radeon RX 550 Radeon R7 260
Ядро GM107 GM107 GP108 GF114 Polaris 12 Bonaire
Количество транзисторов, млн. шт 1870 1870 - 1950 2200 2080
Техпроцесс, нм 28 28 14 40 14 28
Площадь ядра, кв. мм 148 148 71 332 101 160
Количество потоковых процессоров 640 512 384 384 512 768
Количество текстурных блоков 40 32 24 64 32 48
Количество блоков рендеринга 16 16 16 32 16 16
Частота ядра, МГц 1020-1085 1020-1085 1227-1468 823(1645) 1183 1000
Шина памяти, бит 128 128 64 256 128 128
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Частота памяти, МГц 5400 5010 6000 4008 7000 6000
Объём памяти, МБ 2048 1024 2048 1024 4096 1024
Поддерживаемая версия DirectX 12 12 12 11 12 12
Интерфейс PCI-E 3.0 PCI-E 3.0 PCI-E 3.0 (4x) PCI-E 2.0 PCI-E 3.0 (8x) PCI-E 3.0
Мощность, Вт 60 55 30 170 50 95

Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Intel Core i7-6950X (3,0@4,1 ГГц);
  • кулер: Noctua NH-D15 (два вентилятора NF-A15 PWM, 140 мм, 1300 об/мин);
  • материнская плата: MSI X99S MPower (Intel X99);
  • память: G.Skill F4-3200C14Q-32GTZ (4x8 ГБ, DDR4-3200, CL14-14-14-35);
  • системный диск: Intel SSD 520 Series 240GB (240 ГБ, SATA 6Gb/s);
  • дополнительный диск: Hitachi HDS721010CLA332 (1 ТБ, SATA 3Gb/s, 7200 об/мин);
  • блок питания: Seasonic SS-750KM (750 Вт);
  • монитор: ASUS PB278Q (2560х1440, 27″);
  • операционная система: Windows 10 Pro x64;
  • драйвер GeForce: NVIDIA GeForce 382.53.
  • драйвер Radeon: AMD Crimson Edition 17.6.2.

Тестирование проводилось в разрешении 1920x1080 по описанной методике .

Результаты тестирования

Battlefield 4

3DMark Fire Strike

GeForce GTX 560 Ti проигрывает GeForce GT 1030 около 9%, отставание от GeForce GTX 750 достигает 16%, разрыв с решениями AMD еще больше. Прирост от разгона 12%.

Энергопотребление

Сравним данные общего энергопотребления с разными видеокартами.

Результаты GeForce GTX 560 Ti самые высокие, что предполагалось изначально. Но на фоне бюджетных новинок энергопотребление старого видеоадаптера уже кажется колоссальным. И это показывает, насколько лучше соотношение производительности на ватт у современных графических решений.

Выводы

Подведем итоги. Представитель первой архитектуры NVIDIA под DirectX 11 все еще позволяет запускать современные игры при невысоких настройках графики. Проблемы возникнут разве что с приложениями под DirectX 12. Но общий уровень производительности у GeForce GTX 560 Ti по современным меркам крайне низкий. В большинстве игр GeForce GTX 560 Ti оказывается слабее GeForce GT 1030, лишь в четырех приложениях можно констатировать явную победу над бюджетным новичком. С учетом разгона GeForce GTX 560 Ti может составить прямую конкуренцию GeForce GT 1030, часто это помогает нагнать GeForce GTX 750 и даже Radeon RX 550. Но сам разгон GeForce GTX 560 Ti требует мощного охлаждения.

В прошлом GeForce GTX 560 Ti — представитель среднего класса с 256-битной шиной памяти, а GeForce GT 1030 является самой дешевой видеокартой нового поколения с 64-битной шиной, но архитектурные улучшения и серьезный рост частот обеспечивают новому ультрабюджетному решению явное преимущество. Также нельзя сбрасывать со счетов разный объем памяти, 1 ГБ иногда категорически мало, что играет роль дополнительного фактора, сдерживающего потенциал GPU. Однако спустя 6 лет мы имеем схожие графические решения из совершенно разных ценовых категорий. Еще пару лет, и новые ультрабюджетные карты выйдут на уровень GeForce GTX 580. Такие показатели впечатляют еще больше, если взглянуть, насколько повысилась экономичность при сопоставимой производительности. Если вам нужно заменить похожую видеокарту в старом компьютере, то покупка GeForce GT 1030 или Radeon RX 550 обеспечит явные преимущества в новых приложениях, хотя новинки могут быть слабее в старых играх. На данный момент GeForce GTX 560 Ti и близкие по производительности варианты уже попадают в категорию «затычек».

Если вам интересна тема противостояния старых топов и новых бюджетных видеокарт, загляните также в большое тестирование GeForce GTX 580 и Radeon HD 6970 в современных играх.



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: