Обзор видеокарты nVidia GeForce GTX 560

GeForce GTX 560

В январе 2011 года nVidia порадовала всех своих почитателей выходом видеокарты пятого поколения GeForce GTX 560, пришедшей на замену старшему собрату GTX 460, позаимствовав у него графическое ядро GF104, которое немного оптимизировали и назвали GF114, в связи с чем и получили прирост производительности. Видеокарта идеально подойдет для игр даже 2015 года на средних и минимальных настройках. Однако так ли высока оказалась мощность GTX 560 относительно 460 модели, чтобы переплачивать за нее? Об этом и не только речь пойдет ниже.

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nVidia GeForce GTX 560 vs AMD Radeon HD 6950 1 GB – битва машин

Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

В ходе тестирования была использована следующая конфигурация оборудования:

  • МП — eVGA X58 Classified
  • Процессор – Intel Core I7 965, 3.7 ГГц
  • Видеоадаптеры – GeForce GTX 560 TI и Radeon HD 6950 1 ГБ
  • ОЗУ — Corsair 6144 МБ (3x 2048 МБ) DDR3 1500 МГц
  • Блок питания – 1.2 Киловатт
  • ОС: Windows 7, 64 бит с поддержкой DX9 — DX11

Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11
GeForce GTX 560 TI Radeon HD 6950 1 GB
Call of Duty — Modern Warfare 2 123 fps 129 fps
Far Cry 2 81 fps 76 fps
Anno 1404 68 fps 78 fps
Crysis WARHEAD 47 fps 51 fps
Metro 2033 23 fps 25 fps
Battlefield Bad Company 2 47 fps 50 fps
Colin MC Rae Dirt 2 66 fps 72 fps
3DMark Vantage 19925 17912
3DMark 11 4311 4973

Какой вывод можно сделать из представленной выше таблицы? Видеокарта Radeon HD 6950 существенно опережает GTX 560 TI по вычислительной мощности и скорости обработки кадров. Достигается это, прежде всего, за счет большего числа текстурных блоков у радеоновской карты (88 против 64 у GTX 560 TI), стоит отметить и большее количество унифицированных исполнительных процессоров (1408 у Radeon HD 6950 против 384 у GTX 560 TI), однако это не сильно влияет на быстродействие, так как ядро Cayman Pro, на базе которого создана Radeon HD 6950 будет немногим опережать по производительности GF114.

Несмотря на разницу в бенчмарках, в играх радеоновская карта мало чем лучше джифорса. Это проясняется в результате сравнения fps в играх при работе двух видеоадаптеров, потому, учитывая их температуры при нагрузках, я бы рекомендовал все же nVidia GeForce GTX 560 TI, ведь риск перегрева у джифорса гораздо ниже, чем у оппонента из AMD.

Разгон nVidia GeForce GTX 560

Для разгона было использовано то же тестовое оборудование, что и при сравнении GTX 560 с Radeon HD 6950. У GTX 560 TI была повышена частота ядра с 822 до 950 МГц, увеличено количество шейдерных процессоров с 1644 до 1900, а также частота видеопамяти с 4008 до 4800 МГц.

Разгон проводился утилитой Afterburner, при этом напряжение не изменялось, как и работа кулеров.

Настройки в играх ставились высокие, разрешение 1920 x 1200

Результаты оверклокинга:

GeForce GTX 560 GeForce GTX560 – разгон
Call of Duty: Modern Warfare 2 123 fps 141 fps
Battlefield Bad Company 2 54 fps 47 fps
3DMark 11 4749 4311

Как видно из результатов разгона, он будет вполне оправдан, так как fps заметно повышается, как и вычислительная мощность при работе в профессиональных программах, например, Sony Vegas. Но не забывайте следить за температурным режимам, так как несмотря на все меры повышения надежности своих видеокарт, предпринимаемых NVIDIA, риск перегреть ее при разгоне остается несмотря ни на что.

На десерт:

Результаты работы NVIDIA GeForce GTX 560 в некоторых играх 2015-2016 года:

Ведьмак 3: Дикая охота (2015) – средние настройки. Одна из самых прожорливых современных игр. Внимание! 35 fps! Восхитительный результат для видеокарты 2011 года, не правда ли?

CS: GO – максимальные настройки. 200 fps!

GTA 5 (2015) – высокие настройки, разрешение 1360 x 768, вертикальная синхронизация 50%. 30 fps!

Таким образом, данная видеокарта идеально подойдет как для прикладных, так и для игровых решений и потянет подавляющее большинство прожорливых игр на средних настройках. И это с учетом ее стоимости в 4000-5000 рублей на сегодняшний день! А модификации, к примеру, от Gigabyte еще круче. Моя оценка видеокарте: 8 из 10, минус за урезанные модификации GeForce GTX 560 SE, хотя nVidia в этом плане можно понять – компания заботится не только о пользователях, но и о прибыльности дела, это вполне закономерно.

Помогла статья? Оцените её
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд
Оценок: 1
Загрузка...
Добавить комментарий