Test: 4x nvidia geforce gtx 670 und sli

Страница 1: Тест и обзор: 4x NVIDIA GeForce GTX 670 и SLI

Ровно неделю назад мы опубликовали обзор видеокарты NVIDIA GeForce GTX 690, которая оснащена двумя GPU «Kepler». Честно говоря, мы ожидали, что сначала будут выпущены «младшие» модели, но NVIDIA решила начать с топовых видеокарт. Сегодня объявлена видеокарта NVIDIA GeForce GTX 670 — первый шаг компании на средний уровень. «Построена на той же ДНК, что и GTX 680» — так можно описать суть NVIDIA GeForce GTX 670, причём производителю удалось в очередной раз превзойти себя. Видеокарта использует немного урезанный GPU GK104, который работает на меньших тактовых частотах. Подсистема памяти не была затронута, как и набор функций с технологией «GPU Boost». Оппонентом можно назвать Radeon HD 7950, но NVIDIA замахнулась даже на Radeon HD 7970. Ниже мы рассмотрим, насколько обоснованными являются надежны калифорнийского производителя.

Вместе с нынешним объявлением видеокарты многие производители представят свои варианты GeForce GTX 670. В нашем первом сравнительном тестировании в дополнение к эталонной модели мы протестировали видеокарты от EVGA, Palit и Zotac.

» Fotostrecke

Мы не будем подробно обсуждать дизайн эталонной модели, поскольку все производители уже представили видеокарты собственного дизайна. Но, конечно, вы найдете результаты эталонной GTX 670 в нашем разделе тестов.

В следующей таблице приведена техническая информация о видеокартах:

NVIDIAGeForce GTX 670

ASUS GeForce GTX 670DirectCU II TOP

EVGA GeForce GTX 670Superclocked

Palit GeForce GTX 670Jetstream

Zotac GeForce GTX 670AMP! Edition

Розничная цена около 390 евро в Европе13 999 руб. в России 16,8 тыс. рублей в России Узнать цену в России 15,4 тыс. рублей в России около 420 евро в Европеоколо 15,2 тыс. рублей в России
Сайт производителя NVIDIA ASUS Страница видеокарты EVGA Страница видеокарты Palit Zotac
Технические спецификации
GPU GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2)
Техпроцесс 28 нм 28 нм 28 нм 28 нм 28 нм
Число транзисторов 3,54 млрд. 3,54 млрд. 3,54 млрд. 3,54 млрд. 3,54 млрд.
Тактовая частота GPU 915 МГц (Boost: 980 МГц) 1059 МГц (Boost: 1137 МГц) 967 МГц (Boost: 1046 МГц) 1006 МГц (Boost: 1085 МГц) 1098 МГц (Boost: 1176 МГц)
Частота памяти 1502 МГц 1502 МГц 1552 МГц 1527 МГц 1652 МГц
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Объём памяти 2048 Мбайт 2048 Мбайт 2048 Мбайт 2048 Мбайт 2048 Мбайт
Интерфейс памяти 256 бит 256 бит 256 бит 256 бит 256 бит
Пропускная способность памяти 192,2 Гбайт/с 192,3 Гбайт/с 198,6 Гбайт/с 195,5 Гбайт/с 211,5 Гбайт/с
Версия DirectX 11.1 11.1 11.1 11.1 11.1
Потоковые процессоры 1344 (1D) 1344 (1D) 1344 (1D) 1344 (1D) 1344 (1D)
Текстурные блоки 112 112 112 112 112
ROP 32 32 32 32 32
Пиксельная скорость заполнения 25,6 Гпиксель/с 29,7 Гпиксель/с 27,1 Гпиксель/с 28,2 Гпиксель/с 30,7 Гпиксель/с
Минимальное энергопотребление 15 Вт 15 Вт 15 Вт 15 Вт 15 Вт
Максимальное энергопотребление 170 Вт 170 Вт 170 Вт 170 Вт 170 Вт
SLI/CrossFire SLI SLI SLI SLI SLI

Эталонная видеокарта. По сравнению с GPU GeForce GTX 680, в графическом процессоре GK104 видеокарты GeForce GTX 670 был отключен кластер SMX. Таким образом, количество ядер CUDA было уменьшено на 192, с 1536 до 1344 ядер. Если вы хотите узнать подробности об архитектуре «Kepler», мы рекомендуем обратиться к нашему обзору GeForce GTX 680, где мы детально рассмотрели кластеры SMX. Штатная тактовая частота ядер CUDA составляет около 915 МГц, как и в случае GeForce GTX 690, но там используются полные версии GK104. С помощью технологии «GPU Boost» гарантируется минимальный разгон до уровня 980 МГц. Что касается эталонного дизайна, то в некоторых приложениях мы наблюдали разгон до 1084 МГц. Ситуацию с моделями других производителей мы обсудим чуть позже.

Объём памяти составляет 2048 Мбайт, которая подключена по 256-битной шине, работает она на частоте 1502 МГц, в результате чего пропускная способность составляет 192,2 Гбайт/с. Поскольку на каждый кластер SMX приходится по 16 текстурных блоков, то у GeForce GTX 670 мы получаем 112 TMU. Что касается конвейеров растровых операций ROP, то их количество по-прежнему осталось на уроне 32.

NVIDIA заявила тепловой пакет (TDP) для GTX 670 на уровне 170 Вт. То есть он составляет на 25 Вт меньше GeForce GTX 680. Как и можно было ожидать, для подачи дополнительного питания используются два 6-контактных разъема.

Ниже мы более подробно рассмотрим технические спецификации каждой модели.

GPU-Z корректно определяет спецификации GeForce GTX 670.

На следующих страницах вы сможете детально познакомиться со всеми протестированными моделями видеокарт GeForce GTX 670.

<>Тест и обзор: 4x NVIDIA GeForce GTX 670 и SLIASUS GeForce GTX 670 DirectCU II TOP — впечатления (1)
 

Производительность

1.тактовая частота ГП

1006MHz

915MHz

Графический процессор (GPU) имеет более высокую тактовую частоту.

2.турбо ГПУ

1084MHz

980MHz

Когда графический процессор работает ниже своих лимитов, он может перейти на более высокую тактовую частоту, чтобы увеличить производительность.

3.скорость пикселей

28.2 GPixel/s

25.6 GPixel/s

Количество пикселей, которые могут быть отображены на экране каждую секунду.

4.флопс

2.7 TFLOPS

2.46 TFLOPS

FLOPS — это измерение вычислительной мощности процессора GPU.

5.размер текстуры

113 GTexels/s

102 GTexels/s

Количество текстурированных пикселей, которые могут быть отображены на экране каждую секунду.

6.GPU скорость памяти

1502MHz

1502MHz

Скорость памяти — это один из аспектов, который определяет пропускную способность памяти.

7.образцы штриховки

1344

1344

Shading units (или потоковые процессоры) — это небольшие процессоры в видеокарте, которые отвечают за обработку различных аспектов изображения.

8.текстурированные единицы (блоков TMU)

112

112

Блоки TMU принимают текстурированные единицы и привязывают их к геометрическому расположению 3D-сцены. Больше блоков TMU, как правило, означает, что текстурированная информация обрабатывается быстрее.

9.блоки визуализации ROPs

32

32

Блоки ROPs несут ответственность за некоторые из заключительных шагов процесса визуализации, например,запись окончательных данных пикселя в память и для выполнения других задач, таких как сглаживание, чтобы улучшить внешний вид графики.

Seite 1: Test: 4x NVIDIA GeForce GTX 670 und SLI

Vor genau einer Woche präsentierte NVIDIA die GeForce GTX 690 und damit den Dual-GPU-Ableger von «Kepler». Eigentlich hätte man zunächst die kleineren Modelle erwartet, doch NVIDIA wollte wohl erst einmal für klare Verhältnisse sorgen. Heute nun ist es soweit und NVIDIA geht mit der GeForce GTX 670 den ersten Schritt in die Mittelklasse. «Build from the same DNA as the GTX 680» — so umschreibt NVIDIA den Aufbau der GeForce GTX 670 und trifft damit ins Schwarze. Zum Einsatz kommt die leicht beschnittene GK104-GPU mit reduziertem Takt. Den Speicherausbau hat man nicht angetastet, ebenso wie das Featureset mit «GPU Boost». Der Gegenspieler sollte eigentlich Radeon HD 7950 heißen, doch NVIDIA selbst spricht von Augenhöhe zur Radeon HD 7970. Auf den kommenden Seiten werden wir diesen Versprechungen auf den Grund gehen.

Mit dem heutigen Start werden zahlreiche Hersteller ihre Modelle der GeForce GTX 670 präsentieren. In unserem ersten Vergleich vertreten sind neben der Referenzversion auch ein Modell von EVGA, Palit und Zotac.

» Fotostrecke

Auf das Referenzmodell werden wir nicht weiter eingehen, es aber natürlich sehr wohl in den Benchmarks hinzufügen. Da sich das Design aber teilweise deutlich von dem der anderen Hersteller unterscheidet, werden wir die Beschreibungen an diesen Stellen kurz halten und nur auf die technischen Details eingehen. EVGA verwendet eine dem Referenzdesign sehr ähnliche Lösung.

Die technischen Daten haben wir tabellarisch zusammengefasst:

NVIDIAGeForce GTX 670

ASUS GeForce GTX 670DirectCU II TOP

EVGA GeForce GTX 670Superclocked

Palit GeForce GTX 670Jetstream

Zotac GeForce GTX 670AMP! Edition

Straßenpreis ab 390 Euro ab 390 Euro ab 440 Euro ab 350 Euro ab 420 Euro
Homepage NVIDIA-Produktseite ASUS-Produktseite EVGA-Produktseite Palit-Produktseite Zotac-Produktseite
Technische Daten
GPU GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2) GK104 (GK104-325-A2)
Fertigung 28 nm 28 nm 28 nm 28 nm 28 nm
Transistoren 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden
GPU-Takt 915 MHz (Boost: 980 MHz) 1059 MHz (Boost: 1137 MHz) 967 MHz (Boost: 1046 MHz) 1006 MHz (Boost: 1085 MHz) 1098 MHz (Boost: 1176 MHz)
Speichertakt 1502 MHz 1502 MHz 1552 MHz 1527 MHz 1652 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 2048 MB 2048 MB 2048 MB 2048 MB 2048 MB
Speicherinterface 256 Bit 256 Bit 256 Bit 256 Bit 256 Bit
Speicherbandbreite 192,2 GB/Sek. 192,3 GB/Sek. 198,6 GB/Sek. 195,5 GB/Sek. 211,5 GB/Sek.
DirectX-Version 11.1 11.1 11.1 11.1 11.1
Shadereinheiten 1344 (1D) 1344 (1D) 1344 (1D) 1344 (1D) 1344 (1D)
Textur Units 112 112 112 112 112
ROPs 32 32 32 32 32
Pixelfüllrate 25,6 Gigapixel 29,7 Gigapixel 27,1 Gigapixel 28,2 Gigapixel 30,7 Gigapixel
Minimale Leistungsaufnahme 15 Watt 15 Watt 15 Watt 15 Watt 15 Watt
Maximale Leistungsaufnahme 170 Watt 170 Watt 170 Watt 170 Watt 170 Watt
SLI/CrossFire SLI SLI SLI SLI SLI

Das Referenzdesign: Im Vergleich zur GeForce GTX 680 wurde der GK104-GPU der GeForce GTX 670 ein SMX-Cluster deaktiviert. Dies reduziert die Anzahl der CUDA-Cores von 1536 um 192 auf 1344 Cores. Wer sich genauer mit der Architektur von «Kepler» beschäftigen möchte, kann dies im Launch-Artikel zur GeForce GTX 680 tun, in dem wir auf die Details der SMX-Cluster etc. genauer eingehen. Der Takt der CUDA-Cores beläuft sich auf 915 MHz, also genauso wie bei der GeForce GTX 690, wo allerdings der Vollausbau von GK104 zum Einsatz kommt. Via «GPU Boost» sind mindestens 980 MHz möglich. Das Referenzdesign schaffte aber bereits in einigen Anwendungen bis zu 1084 MHz. Auf die Taktungen der jeweiligen Modelle wollen wir später noch genauer eingehen.

Beim Speicherausbau bleibt es bei den 2048 MB, die auch weiterhin mit 256 Bit angebunden sind und zusammen mit dem Takt von 1502 MHz zu einer Speicherbandbreite von 192,2 GB/Sek. führen. Pro SMX-Cluster stehen 16 Textureinheiten zur Verfügung, sodass die GeForce GTX 670 auf derer 112 kommt. Bei den ROP-Units bleibt es bei 32.

NVIDIA gibt eine Thermal Design Power (TDP) von 170 Watt für die GeForce GTX 670 an. Somit läge man gut 25 Watt unterhalb der GeForce GTX 680. Die Versorgung erfolgt aber natürlich weiterhin über zwei 6-Pin-Anschlüsse.

Auf die technischen Daten der einzelnen Modelle gehen wir in den jeweiligen Abschnitten dieses Vergleich etwas genauer ein.

GPU-Z erkennt die technischen Daten der GeForce GTX 670 bereits alle korrekt.

Auf den folgenden Seiten werden wir uns die Modelle der GeForce GTX 670 nun etwas genauer anschauen.

<>Test: 4x NVIDIA GeForce GTX 670 und SLIASUS GeForce GTX 670 DirectCU II TOP — Impressionen (1)
 

Общая информация

1.Конструктивные требования по теплоотводу (TDP)

170W

170W

Требования по теплоотводу (TDP) — это максимальное количество энергии, которое должна будет рассеять система охлаждения. Более низкое значение TDP также обычно означает меньшее энергопотребление.

2.количество транзисторов

3540 миллионов

3540 миллионов

Более высокое число транзисторов обычно указывает на новый, более мощный процессор.

3.размер полупроводников

28nm

28nm

Меньший размер указывает на более новый процесс создания чипа.

4.версия PCI Express (PCIe)

3

3

PCI Express (PCIe) — это высокая скорость стандарта карты расширения, которая используется для подключения компьютера к его периферии. Новые версии поддерживают более высокую пропускную способность и предоставляют более высокую производительность.

5.гарантийный период

Неизвестно. Помогите нам, предложите стоимость. (KFA2 GeForce GTX 670 EX OC 4GB)

Неизвестно. Помогите нам, предложите стоимость. (Nvidia GeForce GTX 670)

Когда продукт находится под гарантией производителя, в случае неисправности, можно получить замену.

6.Имеет воздушно-водяное охлаждение
KFA2 GeForce GTX 670 EX OC 4GB

Nvidia GeForce GTX 670

Графическая карта использует сочетание воды и воздуха, чтобы снизить ее температуру. Это позволяет ей разгоняться больше, увеличивая производительность.

7.ширина

241mm

241mm

Ширина представляет горизонтальный размер продукта. Мы считаем, что меньшая ширина лучше, потому что она обеспечивает легкую маневренность.

8.высота

111mm

111mm

Высота представляет вертикальный размер продукта. Мы считаем меньшую высоту лучше, потому что она обеспечивает легкую маневренность.

Совместимость видеокарты и материнской платы

Есть несколько моментов, по которым можно узнать, совместима ли видеокарта с материнской платой или нет.

1. Разъем AGP или PCI-Е 16

Сейчас все современные видеокарты идут с разъемом PCI-Е 16, но если вы модернизируете старую видеокарту, то посмотрите какой разъем для видеокарты, установлен в материнку.

AGP

PCI-Е 16

2. Интерфейс PCI-Е 16 версии 2.0 и 3.0

У современных разъемов для видеокарты, есть две версии слота PCI-E, это 2.0 и 3.0. Это своего рода как usb 2.0 и 3.0. Соответственно, если ваша материнская плата поддерживает 3.0, то чтобы получить максимальную производительность, нужно брать с поддержкой 3.0. А если вы возьмете видеокарту со слотом 3.0, а в материнке будет стоять разъем 2.0, то вы просто переплатите деньги, а видеокарта будет работать со скоростью 2.0.

Посмотреть это можно на материнской плате или же в характеристиках материнской платы на сайте производителя. Например вот страница с моей материнской платой.

т.е:

  • 2 PCI-e слота с поддержкой 3.0 и 2.0 (могут работать и так и так)
  • 1 PCI-e слот с поддержкой 2.0
  • 2 PCI-e слота 2.0 (не видео слот)
  • 2 PCI слота

Самое главное, чтобы был PCI Express 3.0, так же надпись можно увидеть на материнской плате.

3. SLI или CrossFire

Если вы геймер и любите выжимать полную мощь от видеокарт, то поддержка SLI или CrossFire вам просто необходимо. Эта поддержка даст вам возможность объединить 2 видеокарты и играть в самых тяжелых играх не только на ультра настройках, да ещё и на нескольких мониторах!

CrossFire в видеокартах ATI, а SLI в видеокартах nVidia

4. Мощность процессора

Учтите, что если вы возмете мощную видеокарту и у вас будет установлен слабый процессор, то видеокарта просто не будет работать на полную мощь, т.к. процессор не будет успевать обрабатывать информацию. Для того чтобы точно узнать соответствие процессора к видеокарте, перейдите на этот сайт или же ищите в яндексе таблицу соответствия видеокарт к процессорам. Сейчас за ними не угонишься, по этому лучше всегда искать таблицы по-новее.

Вот основные моменты при проверки совместимости видеокарты и процессора. Так же не забывайте, что купив мощную видеокарту нужно проверить выдерживает ли блок питания нагрузку новой видеокарты.

Особенности технологии

SLI работает на устройствах подключенные в общую сеть видеокарт, где одна карта выступает в качестве конечного порта вызова или главного устройства, отвечающего за отправку на дисплей окончательно прорисованной трехмерной графики. Эта технология может одновременно соединять 2, 3 и 4 графических процессора, стилизованные под 2-way, 3-way и 4-Way SLI.

Мост SLI обеспечивает передачу данных и отношения «ведущий-ведомый» между двумя идентичными графическими процессорами. Идея состоит в том, чтобы обойти чипсет материнской платы в целом и позволить устройствам обмениваться данными напрямую, избегая, таким образом, конкуренции за ограниченную пропускную способность.

Существует четыре типа мостов:

  • Стандартный мост SLI с полосой пропускания до 1 ГБ в секунду и тактовой частотой 400 МГц.
  • Светодиодный мост SLI, который похож на ранее упомянутый стандартный мост, за исключением пикселей с тактовой частотой 540 МГц и способности излучать светодиодное освещение RGB во время работы.
  • Мост SLI HB или мост с высокой пропускной способностью, работающий на частоте 650 МГц со скоростью передачи около 2 ГБ в секунду. В настоящее время это самый распространенный мост.
  • Мост NVLink считаетсяя самым последним форматом и уникальным для линейки графических процессоров Nvidia RTX. Отличается скоростью до 100 ГБ в секунду.

Различные скорости передачи означают, что каждый тип подходит для определенного разрешения. Мост SLI лучше работает при 1080p, светодиод SLI — при , а SLI HB и NVLink подходят для 5K.

Работа SLI — сводится к разделению задач рендеринга в равной степени между графическими процессорами. В большинстве случаев одна карта будет концентрироваться на наборе кадров, а другая — на другой половине. В совокупности создается полностью сформированный кадр, готовый для отображения на мониторе.

В настоящее время существует три режима SLI:

  • Рендеринг с разделением кадров, при котором нагрузка рендеринга распределяется по горизонтали на куски в зависимости от сложности 3D и делится на графические процессоры.
  • Альтернативный рендеринг кадров, при котором каждый графический процессор последовательно выводит кадр. GPU 1 отображает кадр 1, GPU 2 отображает кадр 2, GPU 1 отображает кадр 3, GPU 2 отображает кадр 4 и т.д. До бесконечности. Результатом считается более высокая частота кадров.
  • Сглаживание SLI, благодаря чему возможности сглаживания увеличиваются в два раза благодаря совместному распределению задачи обработки между графическими процессорами в схеме смещения. Результатом считается поразительно лучшее визуальное качество, но в результате производительность имеет тенденцию принимать удар. Возможно сталкивались с этой опцией в настройках игр, часто сопровождаемых SLI 8X или SLI 16X, и задавались вопросом, что все это значит?

Чтобы SLI работал, разработчики должны кодировать игры для поддержки этой технологии. Из-за сложности, присущей двум графическим процессорам для совместной работы, этот процесс требует значительных усилий.

После того, как они установили солидный набор настроек, которые не нарушают игру, Nvidia публикует так называемый профиль SLI. Он содержит набор обновлений драйверов, предназначенных для подготовки графического процессора к работе с игрой и повышения графической производительности.

Конфигурация тестового стенда

  • Процессор: Intel Core i7-4790K (4000 МГц);
  • Материнская плата: SABERTOOTH Z97 MARK 1, версия BIOS 1304;
  • Кулер: Corsair H-110;
  • Термоинтерфейс: Arctic Cooling MX-2;
  • Память: 2 x 8 Гбайт DDR3 2400, Kingston HyperX Savage HX324C11SRK2/16;
  • Видеокарта 1: Palit GTX 970 (1051 / 7000 МГц (ядро/память));
  • Видеокарта 2: EVGA GeForce GTX 980 Superclocked (1241 / 7010 МГц (ядро/память));
  • Видеокарта 3: ASUS GTX780TI-DC2-3GD5 (928 / 7000 МГц (ядро/память));
  • Видеокарта 4: Power Color R9290X (1030 / 5000 МГц (ядро/память));
  • Накопитель SSD: Samsung 840 Pro 256 Гбайт;
  • Регулятор вращения вентиляторов: Schyte Kaze Q-12;
  • Блок питания: Corsair AX860, 860 Ватт;
  • Корпус: NZXT Switch 810;
  • Монитор: VIEWSONIC VP2770-LED;
  • Операционная система: Windows 7 64-bit Service Pack 1;
  • Драйвера: Nvidia GeForce 347.52; AMD Catalyst 14.12 Omega.

В качестве центрального процессора использовался Intel Core i7-4790K, при этом частота процессора была номинальной. HyperThreading и TurboBoost в процессе тестирования были включены. В качестве платформы использовалась материнская плата SABERTOOTH Z97 MARK 1 (версия BIOS 1304). Термоинтерфейс на графическом чипе соответствует заводскому.

От аналогов Palit GTX 970 Phantom отличается переработанной 2-х слотовой системой охлаждения, укороченной печатной платой и частотами соответствующими референсному образцу.

Сравнение GeForce GTX 670 с похожими видеокартами

Показатели в играх

Видеокарта тестировалась на: Battlefield 3, Battlefield 4, Bioshock Infinite, Crysis 2, Crysis 3, Dirt3, FarCry 3, Hitman: Absolution, Metro: Last Light, Thief, Alien: Isolation, Anno 2070, Counter-Strike: Global Offensive, Diablo III, Dirt Rally, Dragon Age: Inquisition, The Elder Scrolls V: Skyrim, FIFA 15, FIFA 16, GRID Autosport, Grand Theft Auto V, Sleeping Dogs, Tomb Raider, The Witcher 3: Wild Hunt.

GeForce GTX 670 6.7 из 10
GeForce GTX 760 6.5 из 10
GeForce GTX 960 6.9 из 10

Работа с графикой

Для тестов использовались: T-Rex, Manhattan, Cloud Gate Factor, Sky Diver Factor, Fire Strike Factor.

GeForce GTX 670 6.3 из 10
GeForce GTX 760 нет данных
GeForce GTX 960 8.0 из 10

Вычислительная мощность

Видеокарта тестировалась на: Face Detection, Ocean Surface Simulation, Particle Simulation, Video Composition, Bitcoin Mining.

GeForce GTX 670 6.5 из 10
GeForce GTX 760 нет данных
GeForce GTX 960 6.3 из 10

Производительность из расчета на 1 Вт

Видеокарта тестировалась на: Battlefield 3, Battlefield 4, Bioshock Infinite, Crysis 2, Crysis 3, Dirt3, FarCry 3, Hitman: Absolution, Metro: Last Light, Thief, Alien: Isolation, Anno 2070, Counter-Strike: Global Offensive, Diablo III, Dirt Rally, Dragon Age: Inquisition, The Elder Scrolls V: Skyrim, FIFA 15, FIFA 16, GRID Autosport, Grand Theft Auto V, Sleeping Dogs, Tomb Raider, The Witcher 3: Wild Hunt, T-Rex, Manhattan, Cloud Gate Factor, Sky Diver Factor, Fire Strike Factor, Face Detection, Ocean Surface Simulation, Particle Simulation, Video Composition, Bitcoin Mining, TDP.

GeForce GTX 670 7.5 из 10
GeForce GTX 760 7.4 из 10
GeForce GTX 960 8.6 из 10

Соотношенеи цена — производительность

Протестировано на: Battlefield 3, Battlefield 4, Bioshock Infinite, Crysis 2, Crysis 3, Dirt3, FarCry 3, Hitman: Absolution, Metro: Last Light, Thief, Alien: Isolation, Anno 2070, Counter-Strike: Global Offensive, Diablo III, Dirt Rally, Dragon Age: Inquisition, The Elder Scrolls V: Skyrim, FIFA 15, FIFA 16, GRID Autosport, Grand Theft Auto V, Sleeping Dogs, Tomb Raider, The Witcher 3: Wild Hunt, T-Rex, Manhattan, Cloud Gate Factor, Sky Diver Factor, Fire Strike Factor, Face Detection, Ocean Surface Simulation, Particle Simulation, Video Composition, Bitcoin Mining, Best new price.

GeForce GTX 670 нет данных
GeForce GTX 760 нет данных
GeForce GTX 960 нет данных

Шум и мощность

Тесты видеокарты выполнялись на: TDP, Idle Power Consumption, Load Power Consumption, Idle Noise Level, Load Noise Level.

GeForce GTX 670 6.6 из 10
GeForce GTX 760 8.6 из 10
GeForce GTX 960 9.1 из 10

Сравнение бенчмарков

GPU 1: NVIDIA GeForce GTX 670GPU 2: NVIDIA GeForce GTX 470M SLI

Название NVIDIA GeForce GTX 670 NVIDIA GeForce GTX 470M SLI
PassMark — G3D Mark 5282
PassMark — G2D Mark 519
Geekbench — OpenCL 12174
CompuBench 1.5 Desktop — Face Detection (mPixels/s) 41.613
CompuBench 1.5 Desktop — Ocean Surface Simulation (Frames/s) 971.208
CompuBench 1.5 Desktop — T-Rex (Frames/s) 4.281
CompuBench 1.5 Desktop — Video Composition (Frames/s) 40.404
CompuBench 1.5 Desktop — Bitcoin Mining (mHash/s) 86.208
GFXBench 4.0 — Car Chase Offscreen (Frames) 7038
GFXBench 4.0 — Manhattan (Frames) 3686
GFXBench 4.0 — T-Rex (Frames) 3361
GFXBench 4.0 — Car Chase Offscreen (Fps) 7038
GFXBench 4.0 — Manhattan (Fps) 3686
GFXBench 4.0 — T-Rex (Fps) 3361
3DMark Fire Strike — Graphics Score 1841

Как узнать в каком режиме работает видеокарта

Если эта статья открыла что-то новое и вам стало интересно, а работает ли моя видеокарта в режиме 3.0, то есть небольшой тест. Скачиваем программу.

Устанавливаем или просто запускам. Есть раздел Bus Interface, на моем примере программа показывает, что слот на видеокарте PCIe 16 установлен версии 3.0, но сейчас он работает в версии 1.1. Это нужно для электросбережения. Но чтобы узнать в какой версии он может работать нужно нажать на тест. Сначала рядом с этим окном нажимаем на вопрос и появится новое окошко. Если у вас одна видеокарта, то просто жмем start render test, если несколько объединены, то ставим галочку ниже.

Появится тест.

А в начальном окне, можно увидеть, что допустим моя видеокарта начала работать в версии 3.0.

Следовательно, это означает, что моя материнская плата и видеокарта совместимы. Видеокарта поддерживает версию 3.0 и материнская плата дает ей возможность ей работать в таком режиме.

Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
RozBlog
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: