Amd radeon hd 7970 vs nvidia geforce gtx 680

Что нужно купить в системный блок для поддержки CrossfireX

Итак, для начала перечислю то, что нам необходимо купить, чтобы построить полноценный CrossFireX
:

Чтобы несколько облегчить поиск, уже есть список чипсетов, на которых есть поддержка технологии CrossFireX,
но это только приблизительный список, окончательную поддержку уточняйте в спецификации на сайте производителя.

для матплат AMD AM3+
:AMD 990FX(x16+x16, PCI-E 2.0)

AMD 990X(x8+x8, PCI-E 2.0)
для матплат AMD AM3
:AMD 890FX(x16+x16, PCI-E 2.0)

AMD 890GX(x8+x8, PCI-E 2.0)
AMD 790X(x8+x8, PCI-E 2.0)
AMD 790GX (x8+x8, PCI-E 2.0)
для матплат Intel LGA2011
:Intel X79 (x16+x16, PCI-E 3.0)

для матплат под Intel LGA1366
:Intel X58 (x16+x16, PCI-E 2.0)

для матплат Intel LGA1156
:
Intel P55 (x8+x8, PCI-E 2.0)
*здесь также важен выбор процессора, CrossFireX возможен ТОЛЬКО на процессорах Lynnfield(i5-7xx,i7-8xx)

На процессорах Clarkdale(i3-5xx,i5-6xx,Pentium) — НЕВОЗМОЖЕН.
для матплат под Intel LGA1155
:
Intel P67 (x8+x8, PCI-E 2.0)
Intel Z68 (x8+x8, PCI-E 2.0)
*следует обратить внимание, что мат. платы на чипсетах Intel P55/P67/Z68:
1) при наличии дополнительного чипа nForce 200 поддерживают схему х16+х16
2) могут поддерживать только схему х16+х4
для матплат AMD AM2
:AMD 580X (x16+x16, PCI-E 1.1)

AMD 790X (x8+x8, PCI-E 2.0)
AMD 790GX (x8+x8, PCI-E 2.0)AMD 790FX(x16+x16, PCI-E 2.0)

для матплат Intel LGA775
:
Intel 975X (x8+x8, PCI-E 1.1)Intel X38 (x16+x16, PCI-E 2.0)

Intel P45 (x8+x8, PCI-E 2.0)Intel X48 (x16+x16, PCI-E 2.0)

Заядлые геймеры наверняка сталкивались или, по крайней мере, слышали о технологиях, называемых SLI и Crossfire, которые принято относить к графической системе компьютера или ноутбука. В большинстве случаев такие термины применяются больше к стационарным системам (это будет рассмотрено несколько позже). Однако иногда для нормальной работы компьютера потребуется знать, как отключить Crossfire или SLI, когда такие режимы не используются. Об этом сейчас и пойдет речь.

⇡#Участники тестирования, подробно

Большинство из карт в многопроцессорных сборках предоставлены для тестирования партнерами NVIDIA, и отличаются от адаптеров референсного дизайна по тактовым частотам. Для чистоты исследования их пришлось привести к референсным спецификациям. Впрочем, проявляя уважение к труду производителей, ниже кратко перечислим достоинства каждого из участников тестирования.

  • AMD Radeon HD 7850
  • ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)
  • ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)
  • Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)
  • GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)
  • MSI GeForce GTX 660 (N660 TF 2GD5/OC)
  • ZOTAC GeForce GTX 660 (ZT-60901-10M)

ASUS GeForce GTX 650 Ti BOOST DirectCU II OC (GTX650TIB-DC2OC-2GD5)

ASUS прислала нам немного разогнанную версию GeForce GTX 650 Ti BOOST 2 Гбайт с базовой частотой ядра, увеличенной на 40 МГц по сравнению с референсной спецификацией. На плату установлена хорошо знакомая система охлаждения DirectCU II, которая включает тепловые трубки, напрямую контактирующие с кристаллом GPU. Отсюда и название DirectCU. Вот только, в отличие от более дорогих моделей, в кулере GTX 650 Ti BOOST теплотрубок всего две штуки, а не три.

Gainward GeForce GTX 650 Ti BOOST 2GB Golden Sample (426018336-2876)

Gainward также производит разогнанную версию GeForce GTX 650 Ti BOOST с тем отличием от реализации ASUS, что базовая частота GPU увеличена лишь на 26 МГц, зато есть прибавка в 100 МГц к результирующей частоте видеопамяти. Кулер видеокарты также принадлежит к открытому типу и содержит две медные теплотрубки.

MSI GeForce GTX 660 (N660 TF 2GD5/OC)

GeForce GTX 660 в исполнении MSI оснащен солидной системой охлаждения Twin Frozr III уже с тремя тепловыми трубками. Базовую тактовую частоту GPU производитель увеличил на 53 МГц относительно референсного значения, не коснувшись частоты видеопамяти.

ZOTAC GeForce GTX 660 (ZT-60901-10M)

Эта видеокарта уже засветилась на 3DNews в изначальном тестировании GeForce GTX 660. Имеется небольшой разгон графического процессора: с базовой частоты 980 до 993 МГц. Система охлаждения представляет собой конструкцию открытого типа с двумя тепловыми трубками и медной пластиной в основании.

AMD Radeon HD 7850

Это на сто процентов референсный видеоадаптер, предоставленный самой компанией AMD. Соответственно, частоты ядра и памяти с точностью до мегагерца соответствуют эталонным. В отличие от всех остальных участников тестирования, референсный Radeon HD 7850 оснащен турбинным кулером. Радиатор имеет медную подошву и пронизан тремя тепловыми трубками.

ASUS Radeon HD 7790 DirectCU II OC (HD7790-DC2OC-1GD5)

Оверклокерская версия Radeon HD 7790 от ASUS разогнана на 75 МГц по частоте процессора и на 400 МГц — по видеопамяти. В целом GPU производства AMD допускают больший заводской разгон по сравнению с аналогами от NVIDIA. Система охлаждения карты аналогична таковой у вышеописанного ASUS GeForce GTX 650 Ti BOOST DirectCU II OC. Это упрощенный вариант кулера DirectCU II с двумя тепловыми трубками, прижатыми к кристаллу GPU.

GIGABYTE Radeon HD 7790 (GV-R779OC-1GD)

Эта карточка по конфигурации похожа на Radeon HD 7990 от ASUS: GPU работает на такой же частоте 1075 МГц, а вот частота памяти оставлена на уровне стандартных 6000 МГц. Кулер представляет собой простейшую конструкцию, образованную цельным алюминиевым радиатором и большой вертушкой. Ни теплотрубками, ни дополнительной металлической подошвой радиатора адаптер GIGABYTE похвастаться не может.

⇡#Обманчивые гигабайты

Существенную проблему в любых конфигурациях с множественными GPU составляет объем памяти видеоадаптеров. Дело в том, что ОЗУ индивидуальных видеокарт не складывается в один большой массив. Вместо этого их содержимое дублируется. Таким образом, даже если совокупная вычислительная способность двух «обрезанных» GPU сопоставима с мощью единственного флагманского ядра, тандем располагает кадровым буфером в размере памяти одной карты. А тяжелые графические режимы, знаете ли, бывают чрезвычайно требовательными к объему памяти. Возьмем игры, известные своей жаждой дополнительных мегабайтов, которые мы используем в качестве бенчмарков. Metro 2033 при разрешении 2560х1440 с максимальными настройками оккупирует до 1,5 Гбайт RAM, Far Cry 3 — 1,7, а Crysis 3 — почти 2 Гбайт.

Ну а поскольку именно для таких игр и таких настроек мы и готовы прибегнуть к столь странному решению, как две относительно бюджетные карты в конфигурации SLI/CrossFireX, то видеоадаптеры с объемом RAM меньше 2 Гбайт нам подходят плохо. В этом плане немного больше повезло продуктам NVIDIA, поскольку даже GeForce GTX 650 Ti BOOST, согласно официальным спецификациям, поставляется в разновидности с 2 Гбайт памяти, не говоря уж о GTX 660. Кроме того, даже GTX 680 имеет не больше памяти (только для GTX 770 допустимы версии с 4 Гбайт GDDR 5).

Radeon HD 7790 задуман как адаптер исключительно с 1 Гбайт памяти, хотя партнеры AMD и производят модели с удвоенным кадровым буфером по собственной инициативе. Версия HD 7850 с 1 Гбайт памяти в связи с появлением HD 7790, напротив, официально прекратила существование. И главное, флагман-то, Radeon HD 7970 GHz Edition, комплектуется 3 Гбайт памяти — в полтора раза больше, чем у «середнячков» от AMD.

А вообще — прекратим гадать. Честное слово, производительность сборки двух геймерских видеокарт средней категории в SLI или CrossFireX трудно предсказать на основании голой теории. Нужно тестировать, и мы готовы к любым неожиданностям. Но прежде чем перейти к практической работе, обсудим еще один аспект нашего экзотического проекта — энергопотребление. Если исходить из типичной мощности адаптеров AMD, тандем HD 7850 не должен потреблять намного больше энергии, чем единственный Radeon HD 7970: 2х130 против 250 Вт соответственно. Сборка HD 7790 еще более экономична: это дважды по 85 Вт.

Сопоставимые по производительности карты NVIDIA более прожорливы. GeForce GTX 650 Ti BOOST и GTX 660 обладают одинаковым TDP — 140 Вт. В паре такие адаптеры намного превосходят GeForce GTX 680 (195 Вт) и даже GTX 770 (230 Вт).

Подключение пары SLI/CrossFire для увеличения производительности

Этот способ подразумевает увеличение производительности, однако требует наличия специальных видеокарт, поддерживающих эту функцию. Визуально такие можно определить по коннектору для соединительного шлейфа на верхнем торце.

Возможно вас заинтересует: Как восстановить жесткий диск, если система его не видит

Специальные видеокарты для увеличения производительности

  • повторите действия первого пункта, установив две идентичные видеокарты в расположенные рядом слоты;
  • соедините карты специальным шлейфом, который необходимо докупить отдельно, так, как показано на рисунке;

    Соединяем видеокарты специальным шлейфом

  • после этого закройте компьютер, включите его и установите драйвера.

    Скачиваем и устанавливаем драйверы для видеокарт на официальном сайте производителя

Но теперь на этом дело не заканчивается. Чтобы наши видеокарты могли показать наилучшую производительность, необходимо настроить параметры их взаимодействия правильно. Сделать это можно с помощью фирменных утилит, предоставляемых производителем — как правило, утилиты такие устанавливаются на ваш компьютер вместе с драйверами видеокарты.

Рассмотрим настройку подобной конфигурации на примере двух видеокарт от nVidia, работающих в связке SLI.

  1. Перейдите в «Панель управления NVIDIA», вызвав контекстное меню рабочего стола и выбрав соответствующий пункт.

    Правой кнопкой мыши вызываем контекстное меню рабочего стола, переходим в «Панель управления NVIDIA»

  2. В разделе «Параметры 3D» следует выбрать подпункт «Настройка SLI».

    В разделе «Параметры 3D» выбираем подпункт «Настройка SLI»

  3. В разделе с заголовком «Конфигурация SLI» установите отметку на строчку «Максимальная производительность 3D». Примените внесенные изменения и перезагрузите компьютер.

    В разделе «Конфигурация SLI» устанавливаем отметку на строчку «Максимальная производительность 3D»

Готово! Вы настроили две видеокарты на вашем компьютере. Можете начинать его использование.

Компьютер в работе после настройки двух специальных видеокарт для увеличения производительности

Rendimiento muy desigual en diferentes juegos y requieren de un gran trabajo de optimización

La eterna promesa tanto de SLI como de CrossFire ha sido ofrecer el rendimiento más alto posible, tomando múltiples tarjetas gráficas de alta gama y creando equipos de juego muy potentes. Elije una sola GPU principal asequible y luego, más adelante, compra otra, posiblemente por menos del precio de la primera, y obtén el mismo nivel de rendimiento que obtendrías de una alternativa más cara. Esto funciona realmente bien en juegos muy optimizados para estas tecnologías.

Por ejemplo, una sola tarjeta GeForce GTX 680 obtiene una puntuación de 3354 en 3DMark 11 utilizando el preajuste Extreme. Esa es una puntuación bastante alta, pero saltó a solo 6463 después de que agregamos una segunda tarjeta y habilitamos SLI. El benchmark Metro 2033 con una sola tarjeta GeForce GTX 680 ofrece 54.33 fotogramas por segundo en configuraciones altas a una resolución de 2560 por 1600. Emparejar dos de las mismas tarjetas corriendo en SLI obtuvo 93 fps.

Un par de tarjetas gráficas Radeon HD 7970 mostraron una mejora de rendimiento similar cuando se usa CrossFire. Una sola Radeon HD 7970 obtuvo 3321 en 3DMark 11 y 58.67 fps en Metro 2033 usando la misma configuración que las tarjetas GeForce. Con CrossFire habilitado, los puntajes 3DMark 11 y Metro 2033 de los Radeon saltaron a 6413 y 99.33 fps, respectivamente.

SLI vs CrossFire

GeForce GTX 680 GeForce GTX 680 SLI Radeon HD 7970 Radeon HD 7970 CrossFire
3DMark 11 3354 puntos 6463 puntos 3321 puntos 6413 puntos
Metro 2033 54,33 FPS 93 FPS 58,67 FPS 99,33 FPS

Pero esto nunca se ha cumplido del todo, pues SLI y CrossFire son desde hace mucho tiempo tecnologías que ofrecen rendimientos decrecientes en su inversión. Es muy raro obtener el doble del rendimiento en un juego al agregar una segunda GPU, y el aumento del rendimiento se hace notablemente más pequeño cuantas más tarjetas gráficas se agregan a una matriz. Y eso es si el desarrollador de un juego incluso se molesta en implementar soporte SLI o CrossFire. Este es el problema más importante que enfrentan las tecnologías multi-GPU y podría decirse que es la razón de su declive, y su muerte potencialmente inminente. Con el aumento en el coste del desarrollo de los juegos, es difícil para AMD o para Nvidia alentar a los desarrolladores a interesarse activamente.

Ширина шины или сколько бит «нужно»

Ширина шины памяти – важнейший параметр, который косвенно влияет на общую производительность видеокарты. Сама по себе шина – это канал, соединяющий память и графический процессор видеокарты. А от ширины шины зависит количество данных, которое может быть передано графическому процессору и обратно в память за единицу времени. Соответственно, чем больше ширина шины видеопамяти, тем лучше. Рост производительности особенно заметен в требовательных играх, которые подкреплены утяжелением в виде максимального сглаживания и анизотропной фильтрации.

Теперь, давайте рассмотрим несколько популярных классов «битности» шин памяти:

64 бита — довольно популярный класс видеокарт бюджетного сегмента рынка. Видеокарты с такой шиной позиционируются для «облагораживания» бюджетных систем (но и то, там зачастую царят интегрированные решения), а также домашних ПК с нетребовательными задачами к графической производительности системы. Особенно смешно смотрятся такие видеокарты с большим объёмом видеопамяти на борту.

128 бит – средний класс. Изредка, можно увидеть в бюджетных видеокартах, и очень часто в видеокартах middle-сегмента. Зачастую, такие видеокарты пригодны для полноценных домашних систем, с довольно широкими игровыми задачами, но часть игр всё равно будет «неподъёмной» для данного класса.

256 и 384 бит – топовый класс. Зачастую, «идёт» в сочетании с отменными частотными показателями, как памяти, так и ядра, безусловно, – это максимальная игровая производительность для всего и сразу.

Но, хотелось бы подчеркнуть, что данная классификация является очень и очень условной, потому что нельзя оценивать видеокарту по одной лишь ширине шины памяти. К тому же, сама по себе «битность», влияет на производительность лишь с жёсткой зависимостью от частоты видеопамяти. Эти два параметра рассчитывают пропускную способность памяти видеокарты (ПСП).

Поэтому, чтобы уверенно говорить относительно оптимальной величины шины, нужно рассматривать всё в комплексе, то есть, саму ПСП. Чем мы сейчас и займёмся.

Участники тестирования и методика

Было выбрано по паре штук топовых видеокарт NVidia GeForce GTX 1080 Ti и AMD Radeon RX Vega 64, объединяемых, соответственно, в SLI и CrossFire. Использовались игры с поддержкой таких API, DX11, DX12 и Vulkan.

В роли бенчмарков выступали:

  • 3DMark Firestrike Extreme / Ultra (DX11).
  • 3DMark Timespy (DX12).
  • Unigine Superposition.
  • Battlefield 1 (DX12).
  • Doom (Vulkan).
  • F1 2017 (DX11).
  • Forza Motorsport 7 (DX12).
  • Ghost Recon: Wildlands (DX11).
  • GTA V (DX11).
  • Rise of the Tomb Raider (DX12).
  • The Division (DX12).
  • The Witcher 3 (DX11).
  • Total War Warhammer (DX12).

Проверка проводилась на разрешениях FullHD:

  • 1920×1080 (Full HD) – средние настройки графики.
  • 1920×1080 (Full HD) — Ultra / Highest настройки графики.
  • 2560×1440 (WQHD) — средние настройки графики.
  • 2560×1440 (WQHD) — Ultra / Highest настройки графики.
  • 3840×2160 (Ultra HD) — средние настройки графики.
  • 3840×2160 (Ultra HD) — Ultra / Highest настройки графики.

В качестве тестового стенда использовалась следующая конфигурация:

  • Процессор – Intel Core i9 7900X Skylake-X 10-core @ 4.5 GHz
  • Материнская плата – ASUS Strix X299-XE Gaming motherboard
  • Память – G.Skill Trident Z 32 ГБ DDR4-3200 CL14
  • SSD – 2x Samsung 840 Evo 1 TБ
  • Windows 10 x64 Fall Creators Update

При проверке в играх в графиках ниже отражено среднее значение FPS.

Общая информация

1.Конструктивные требования по теплоотводу (TDP)

250W

195W

Требования по теплоотводу (TDP) — это максимальное количество энергии, которое должна будет рассеять система охлаждения. Более низкое значение TDP также обычно означает меньшее энергопотребление.

2.количество транзисторов

4313 миллионов

3540 миллионов

Более высокое число транзисторов обычно указывает на новый, более мощный процессор.

3.размер полупроводников

28nm

28nm

Меньший размер указывает на более новый процесс создания чипа.

4.версия PCI Express (PCIe)

3

3

PCI Express (PCIe) — это высокая скорость стандарта карты расширения, которая используется для подключения компьютера к его периферии. Новые версии поддерживают более высокую пропускную способность и предоставляют более высокую производительность.

5.гарантийный период

Неизвестно. Помогите нам, предложите стоимость. (AMD Radeon HD 7970)

Неизвестно. Помогите нам, предложите стоимость. (Nvidia GeForce GTX 680)

Когда продукт находится под гарантией производителя, в случае неисправности, можно получить замену.

6.Имеет воздушно-водяное охлаждение
AMD Radeon HD 7970

Nvidia GeForce GTX 680

Графическая карта использует сочетание воды и воздуха, чтобы снизить ее температуру. Это позволяет ей разгоняться больше, увеличивая производительность.

7.ширина

274mm

254mm

Ширина представляет горизонтальный размер продукта. Мы считаем, что меньшая ширина лучше, потому что она обеспечивает легкую маневренность.

8.высота

120mm

112mm

Высота представляет вертикальный размер продукта. Мы считаем меньшую высоту лучше, потому что она обеспечивает легкую маневренность.

Использование «Диспетчера устройств»

Теперь посмотрим, как отключить Crossfire AMD или SLI nVidia при помощи стандартных средств Windows-систем. Для этого необходимо зайти в стандартный «Диспетчер устройств». Делается это либо через «Панель управления», либо через «Администрирование», либо с использованием команды devmgmt.msc.

Здесь нужно перейти в раздел видеоадаптеров, где и будут указаны установленные устройства. В этом случае, равно как и во всех других ситуациях, вопрос о том, как отключить SLI-Crossfire, сводится к тому, чтобы сделать недоступной одну из карт. Выбираем карту для отключения и правым кликом вызываем меню свойств, где имеется кнопка отключения устройства. Можно использовать аналогичную команду непосредственно из контекстного меню. После этого даже систему перезагружать не придется.

⇡#Участники тестирования

Наша задача — собрать четыре двухпроцессорные конфигурации: на базе GeForce GTX 650 Ti BOOST и GeForce GTX 660, с одной стороны, и на Radeon HD 7790 и HD 7850 — с другой, а затем сравнить их производительность с производительностью мощных адаптеров на одном GPU.

  • 2 x GeForce GTX 660 (980/6008 МГц, 2 Гбайт)
  • 2 x GeForce GTX 650 Ti BOOST (980/6008 МГц, 2 Гбайт)
  • 2 x Radeon HD 7850 (860/4800 МГц, 2 Гбайт)
  • 2 x Radeon HD 7790 (1000/6000 МГц, 1 Гбайт)

А эти модели были выбраны в качестве конкурентов:

  • AMD Radeon HD 7970 GHz Edition (1050/6000 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500 МГц, 3 Гбайт)
  • AMD Radeon HD 7950 (800/5000 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 780 (863/6008 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 770 (1046/7012 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 680 (1006/6008 МГц, 2 Гбайт)
  • NVIDIA GeForce GTX 670 (915/6008 МГц, 2 Гбайт)

Как правильно выбрать видеокарту

Столкновение с нелегким выбором. Любой пользователь компьютера хоть раз, но встанет перед выбором комплектующих

Не важно, будь то компьютер для офиса или же мощная игровая машина – в любом случае, осторожность, предусмотрительность и расчетливость – лучшие друзья на момент подбора техники. Нужно столько всего учесть, чтобы не попасть в невыгодную ситуацию. Данная статья будет служить неким руководством, конечно не для подбора всех комплектующих, но в выборе видеокарты должна помочь читателю

Данная статья будет служить неким руководством, конечно не для подбора всех комплектующих, но в выборе видеокарты должна помочь читателю.

Итак, сначала нужно определиться: для какого рода занятий требуется это устройство.

Если для незамысловатого вывода картинки на экран, к примеру для просмотра фильмов подойдут и бюджетные варианты со стороны компании Nvidia, серии GT. Как образец, можно представить модель GT 1030. Она отлично подойдет для поставленной задачи, а также неплохо справится с геймплеем не самых новых игр на средних настройках графики.

Игровые варианты, это, безусловно, серия GTX и RTX от Nvidia или RX 5xx от AMD. Опять же, на становлении выбора может уйти огромное количество времени, потому как подобных видеокарт достаточно много. Однако привести пару от каждого производителя не составит труда.

  • Первая пара: GTX 1050Ti и RX 570 прекрасно подойдут для комфортного времяпрепровождения перед дисплеем FullHD монитора на высоких настройках.
  • Вторая пара: GTX 1660Ti и RX 580, это варианты уже посерьезней, так как на одном подобном мониторе фреймрейт в играх с высокими настройками не будет падать ниже 60.
  • И наконец, третья пара: RTX 2080 (и выше) – RX 5700 XT (и последущие). Это уже флагманы обеих компаний, а значит – даже в разрешении 4K, видеокарты будут показывать себя с лучшей стороны, естественно, с самыми высокими настройками графики.

Также есть специальные графические системы, предназначенные для самых тяжелых и ресурсоемких задач, в которых требуются сложные объемные вычисления, к примеру:

3D моделирование. Здесь подойдут видеокарты от Nvidia – NVIDIA RTX 2080, GTX 1080Ti, GTX 1070Ti, подойдут и GTX 1060, 1070, 1080 и RTX 2070, 2060– модели, прекрасно подходящие для любой работы. Эти видеокарты также прекрасно справляются с играми. И все же, любая из этих видеокарт уступит по производительности исключительно игровому варианту – GTX 2080Ti . За счет большого объема видеопамяти (2080Ti имеет 11GB), устройства могут передавать картинку на несколько мониторов в 4K разрешении.

Ну, а, в заключение нужно определиться только с бюджетом.

Цена на видеокарты

  • первого типа, бюджетные видеокарты на два монитора, варьируется от 3 до 6 тысяч рублей (дороже брать – нет смысла);
  • стоимость второго типа видеокарт сильно расходиться, от 10 до 35-40 тысяч;
  • третий же тип, соответственно самый дорогой, поскольку предназначен для профессиональных вычислений, ну а цена – здесь круглая сумма и составляет возможный максимум – 250 тысяч рублей.

Заключение. Сравнение SLI и CrossFire, оно вам надо?

Так что же, имеет смысл вкладываться в покупку второй видеокарты или нет? На мой взгляд, скорее нет, чем да. Прирост количества FPS проявляется только в некоторых играх. Часто он отнюдь не оправдывает затраченные немалые средства на саму видеокарту, а также на приобретение не самой дешевой материнской платы.

Да и большого стремления у разработчиков поддерживать технологию мультипроцессорности тоже не видно. Наличие топовой видеокарты уже само по себе почти гарантирует комфортный уровень частоты кадров в играх почти на любых разрешениях. Исключением может стать разве что режим 4К на ультра или близких к ним настройках.

Возможно, установка второй видеокарты имела бы смысл при использовании видеочипов среднего уровня, но, к сожалению, GTX 1060, не говоря про младшие модели, могут работать только в одиночестве.

Что же касается полученных в тестировании результатов, то весьма достойно выглядит видеокарта GTX 1080 Ti именно при одиночном применении. В большинстве случаев ее производительность находится на уровне двух Radeon RX Vega 64 в CrossFire режиме.

Не следует забывать и про такой неприятный эффект, как микрозадержки при рендеринге видеокартами своих кадров. Небольшой прирост быстродействия может быть омрачен появлением мелких, но не столь незаметных подергиваний изображения, снижения плавности.

Если исходить из цены, то насколько оправдана покупка второй видеокарты? На данный момент (середина июня 2018-го года) цены на GTX 1070 начинаются примерно с 32000 руб. GTX 1080 уже стоит не меньше 39000-40000 руб., а версия Ti переваливает за 60000 руб. Удвойте эти цифры и получите стоимость видеоподсистемы, которая окажется в среднем на 40-60% быстрее, чем одиночная видеокарта, которая вполне справится сама почти с любой нагрузкой.

Если же компромиссы невозможны, а разрешения ниже 4К вообще не рассматриваются, да еще и мониторов несколько, тогда аргументов в пользу SLI/CrossFire существенно больше. Вопрос только в стоимости этого удовольствия.

Задуматься о приобретении второй видеокарты можно разве что как вариант превентивного шага в ожидании новых игр и использования разработчиками всех возможностей, предоставляемых DirectX 12.

Тем же, кто привык, что каждый вложенный рубль подкрепляется мегагерцами и FPS-ами, вряд ли понравится перспектива покупки двух дорогих видеокарт при максимум полуторной прибавке к быстродействию.

Как бы то ни было, это только сравнение SLI и CrossFire. Окончательное решение принимать вам, и сделать его можно только опираясь на результаты, которые помогут спрогнозировать потенциальный эффект от апгрейда.

Хороших покупок и высоких значений FPS.

Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
RozBlog
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: