Kfa2 geforce gtx 1080 ti hof: обзор, отзывы, температуры и майнинг

⇡#А оно нам надо?

Но попробуем найти в таком эксперименте и долю практической пользы. В теории тандем слабых видеокарт может стать более выгодной покупкой, чем один топовый адаптер. Старшими моделями AMD ныне являются бессменный Radeon HD 7970 и его разогнанный собрат HD 7970 GHz Edition. Среди продукции NVIDIA аналогичной парочкой можно считать GeForce GTX 680 и GTX 770. Ну а на роль их приблизительных половинок подходят Radeon HD 7790 и HD 7850 (для AMD), GTX 650 Ti BOOST и GTX 660 (для NVIDIA).

Таким образом, CrossFireX на двух недорогих карточках AMD кажется сомнительной затеей хотя бы потому, что Radeon HD 7850, хоть и является половинкой HD 7970 по числу активных вычислительных блоков в GPU, существенно уступает последнему по тактовой частоте ядра и памяти. HD 7790 крутит процессор на частоте 1 ГГц, что отчасти компенсирует его более скромную конфигурацию по сравнению с HD 7850, но слабым местом HD 7790 является 128-битная шина памяти, а главное — её объем в 1 Гбайт, что обязательно скажется на производительности в тяжелых графических режимах (а именно для них мы и собираем такой тандем).

С точки зрения чистого эксперимента, не обремененного финансовыми соображениями, по конфигурации вычислительных блоков и частоты GPU совокупная мощь пары младших адаптеров AMD, способных работать в режиме CrossFireX (Radeon HD 7770 в расчет не берем, сборка из двух таких — это было бы совсем нелепо), немного не достает до флагманской отметки. Не будем забывать это обстоятельство, обсуждая результаты бенчмарков. Впрочем, в пользу пары HD 7850 играет 256-битная шина памяти — то, что NVIDIA не может предложить в этом ценовом сегменте.

Модель Radeon HD 7790 Radeon HD 7850 HD 7970 HD 7970 GHz Edition
Основные компоненты
GPU Bonaire Pitcairn Pro Tahiti XT Tahiti XT
Число транзисторов, млн 2080 2800 4313 4313
Техпроцесс, нм 28 28 28 28
Тактовая частота GPU, МГц: Base Clock / Boost Clock 1000/НД 860/НД 925/НД 1000/1050
Потоковые процессоры 896 1024 2048 2048
Текстурные блоки 56 64 128 128
ROP 16 32 32 32
Видеопамять: тип, объем, Мбайт GDDR5, 1024 GDDR5, 2048 GDDR5, 3072 GDDR5, 3072
Ширина шины памяти, бит 128 256 384 384
Тактовая частота памяти: реальная (эффективная), МГц 1500 (6000) 1200 (4800) 1375 (5500) 1500 (6000)
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2 1 х DL DVI-I, 1 x HDMI 1.4a, 2 x Mini DisplayPort 1.2
Макс. разрешение VGA: 2048×1536, DVI: 2560×1600, HDMI: 4096х2160, DP: 4096х2160
Типичная потребляемая мощность, Вт 85 130 250 250+
Средняя розничная цена, руб. 4 100 4 800 9 800 14 000
Модель GeForce GTX 650 Ti BOOST GeForce GTX 660 GTX 680 GTX 770
Основные компоненты
GPU GK106 GK106 GK104 GK104
Число транзисторов, млн 2 540 2 540 3 540 3 540
Техпроцесс, нм 28 28 28 28
Тактовая частота GPU, МГц: Base Clock / Boost Clock 980/1033 980/1033 1006/1058 1046/1085
Потоковые процессоры 768 960 1536 1536
Текстурные блоки 64 80 128 128
ROP 24 24 32 32
Видеопамять: тип, объем, Мбайт GDDR5, 1024/2048 GDDR5, 2048 GDDR5, 2048 GDDR5, 2048
Ширина шины памяти, бит 1502 (6008) 1502 (6008) 1502 (6008) 1753 (7010)
Тактовая частота памяти: реальная (эффективная), МГц 192 192 256 256
Интерфейс PCI-Express 3.0 x16
Вывод изображения
Интерфейсы 1 х DL DVI-I, 1 x DL DVI-D, 1 x HDMI 1.4a, 1 x DisplayPort 1.2
Макс. разрешение
Типичная потребляемая мощность, Вт 140 140 195 230
Средняя розничная цена, руб. 5 200 5 800 13 000 13 000

Обзор видеокарты

Модель Nvidia GTX 660 с 2 Гб видеопамяти подключается на материнской плате к слоту PCI-E и позволяет подключать периферийные устройства через 2 порта DVI, один DisplayPort и HDMI. Устройство для воспроизведения цифрового звука входит и в состав процессора GPU Nvidia GeForce GTX 660, обеспечивая поддержку HD Audio.

На плате находится и разъём SLI, позволяющий использовать карту вместе с другим видеоадаптером. Это даёт возможность увеличить fps в играх и получить более качественное изображение при воспроизведении видео.

Какой нужен блок питания для GTX 660

Заявленное энергопотребление GTX 660 достаточно высокое – даже без разгона TDP видеоадаптера составляет 140 Вт. Хотя в обычном режиме (без запуска требовательных к ресурсам игр) карта потребляет не больше 115-127 Ватт. Однако даже такое потребление не может обеспечиваться слотом PCI-E – для подачи дополнительного питания в конструкции устройства предназначен дополнительный 6-контактный разъём.

Результаты тестирования видеокарты в играх

Одним из самых распространённых способов оценки производительности видеокарт является тестовый запуск современных игровых приложений. Выполненные в 2012-м году тесты в играх GTX 660 позволяют сравнить её с двумя другими моделями похожего уровня. Результаты проверки оказались следующими:

  • В игре Batman: Arkham City GTX 660 показала практически тот же уровень fps, что и модель (36 против 36.4) и лучшие показатели по сравнению с Radeon HD 7950. После разгона характеристики карты улучшились ещё на 12%.
  • В популярном шутере Battlefield 3 эта модель видеокарты показала 45.3 fps на стандартных для таких проверок настройках (разрешение FullHD, DirectX 11). Достойный уровень, хотя показатели карты 660 Ti оказались почти на 20% лучше. Зато все видеоадаптеры AMD отстали по частоте кадров на 4-30%.
  • Игра Warhead снова показала преимущество GTX 660 над Radeon HD 7850, однако модель HD 7870 уже обеспечила на 10% больше fps. Видеокарта 660 Ti отличается в лучшую сторону на тот же уровень – 20%.
  • Требовательная к ресурсам компьютера и видеоадаптера игра Crysis 2 запускается на настройках FullHD, показывая всего 16 fps. Тот же показатель у 660 Ti равен 20, у Radeon HD 7850 – 17.
  • В игре Hard Reset характеристики частоты кадров у видеодаптера средние – всего лишь 40 fps. Этот показатель находится между Radeon HD 7850 с 36 fps и HD 7950 с 44 fps.
  • В пятой части серии TES, игре Skyrim, видеоадаптер занял последнее место, обеспечивая только 50 fps. Хотя такого показателя более чем достаточно для нормального погружения в игровой процесс.

Неплохие результаты показывает видеокарта и в таких, достаточно требовательных для 2012 года играх как Max Payne 3, Metro 2033 и второй части «Ведьмака». Это значит, что при установке минимальных настроек возможностей GTX 660 будет достаточно и для более современных игровых приложений. Так, например, вполне соответствует видеоадаптер минимальным требованиям игры Fallout 4 и GTA V.

Как разогнать видеокарту Nvidia GeForce GTX 660

Выполняя разгон GTX 660, можно повысить её характеристики практически до уровня более производительных моделей. Делают это с помощью специального программного обеспечения – например, утилиты MSI Afterburner, преимуществами которой являются бесплатность и универсальность. После разгона возможно не только увеличение fps в играх, но и майнинг на GTX 660 – добыча криптовалюты путём участия в облачных вычислениях. Видеокарта обладает регулируемым лимитом производительности, который можно повысить примерно на 10%. При номинальной частоте в 1006-1033 МГц разогнанный GPU получил показатель на уровне 1139 МГц. Память, работающая на частоте 6008 МГц, после разгона смогла обеспечить не больше 6804 МГц.С одной стороны, заметного увеличения производительности устройства не происходит, с другой – разгон видеокарты Nvidia GeForce GTX 660 происходит без повышения шума и количества оборотов кулера. Скорость вентиляторов и для нормального режима, и для разогнанной карты составляет 2400 об/мин, энергопотребление увеличилось всего на 10 Вт.

Технические характеристики

Ядро с самого начала работает на приличной частоте — 980 МГц. И конечно же она имеет поддержку авторазгона. То бишь частота будет меняться автоматически, под влиянием определенных параметров.

Она оснащена 192 битовой шиной памяти и имеет видеопамять равную 2 Гб GDDR5 типа и работающей на частоте 6008 МГц.

По заявлениям производителя, потребляемая мощность равна 140 Вт, но в приложения, которые не дают сильную нагрузку на карту, она достигает 115-127 Вт. Желательно чтобы мощность блока питания была не менее 450 Вт.

Эталонная версия имеет небольшую печатную плату и систему охлаждения, которая занимается тем, что выгоняет воздух за пределы блока.

Основные характеристики

Ядро GK106
Универсальных конвейеров (SPU) 960
Частота SPU 1960 МГц
Частота ядра 980 МГц
Частота памяти 6000 МГц
Тип памяти GDDR5
Объём памяти 2048 Мбайт
Шина памяти 192 бит
Текстурных блоков (TMU) 80
Блоков растеризации (ROP) 24

Дополнительные характеристики

Технический процесс 28 нм
Количество транзисторов 3540 млн
Площадь ядра 221 мм2
Пропускная способность памяти 144.2 Гбит/с
Fill Rate 25700 МПикс/с
Fill Rate 85800 Мтекс/с
Энергопотребление (Мин) Вт
Энергопотребление (Макс) 150 Вт
RAMDAC 2×400 МГц
Интерфейс PCI-E x16 3.0
Версия DirectX 11
Версия ShaderModel 5.0

Недостатки использования двух видеокарт

Использование двух видеокарт имеет свои преимущества, но может быть не лучшим решением для пользователя, который находится на бюджетном уровне, не использует современные 3D-приложения и не редактирует видео. Кроме покупки второй видеокарты, вы должны иметь или приобрести материнскую плату, которая поддерживает несколько видеокарт, а также блок питания, который может питать две карты.

Двойные видеокарты также требуют настольного корпуса, достаточно большого, чтобы вместить оборудование и блок питания, который может работать с несколькими картами. Карты должны быть соединены с помощью мостового разъема, который может быть включен либо в GPU, либо в материнскую плату.

Сравнение параметров разных производителей

В настоящее время видеокарта снята с производства и отсутствует в магазинах. Приобрести её можно только на вторичном рынке. Для сравнения выпущенных различными производителями версий может использоваться цена Nvidia GeForce GTX 660 2Gb на момент её выпуска.

Ассортимент брендов, под которыми выпускался видеоадаптер, достаточно большой. Среди них есть практически все известные марки – от Asus и MSI до Palit и Zotac. Производитель Gigabyte представлен двумя вариантами с разным объёмом памяти.

Марка Объём памяти, Гб  Частота памяти, МГц Частота процессора, МГц Стоимость на момент выпуска, руб.
Palit 2 6108 1006 7500
Asus 2 6008 1020 7400
MSI 2 6008 1033 7000
Inno3D 2 6008 1006 7100
Zotac 2 6008 1006 7350
Gigabyte 2 6008 1033 7300
3 6008 1033 10500

Дальнейшее развитие параллельного соединения GPU

С выходом нового поколения видеокарт GeForce RTX, NVIDIA анонсировала и новый интерфейс (мост) NVLink для соединения двух графических процессоров для совместной работы. Соединяются они при помощи NVLink Bridge . Скорость передачи данных по новому интерфейсу по сравнению со SLI выросла в 10 раз. С 10 Гбайт/с до 100 Гбайт/с. NVLink поддерживают только GeForce RTX 2080 и RTX 2080 Ti, модели 2070 и 2060 его лишены.

Судя по моему анализу различных игровых тестов, проведенных с двумя видеокартами последних поколений (2080Ti), новый интерфейс практически во всех современных играх в разрешении 8k (7680 × 4320 точек) дает минимум 40% прирост производительности по сравнению с работай SLI режима на двух 1080Ti. Ниже на изображении я привел результаты одного из таких тестов.

Немного истории

Началом эры SLI можно считать 1998 год. Тогда компания 3dfx впервые сумела реализовать возможность объединения нескольких видеокарт для решения одной задачи. Однако развитие интерфейса AGP затормозило разработки в этом направлении, так как все материнские платы того времени оснащались только одним слотом для видеоплаты.

SLI от 3DFX — «дедушка» современной технологии

После того, как в 2001 году 3dfx были куплены компанией Nvidia, все разработки в этом направлении ожидали своего часа, который наступил только в 2004 году. Именно тогда, в 6000-й серии GeForce (первые видеокарты, разработанные специально под новейший на то время интерфейс PCI-Express) имеющиеся разработки были усовершенствованы и внедрены в продукты массового потребления.

SLI из двух GeForce 6600GT

Сперва объединить можно было две видеокарты GeForce 6600 или 6800, с выходом 7000-й серии (в которой была представлена первая полноценная двухпроцессорная плата от Nvidia, 7900GX2) появилась возможность построения четырехпроцессорной конфигурации (из 2 карт), а позже стало возможным и сочетание 3 или 4 раздельных ГП.

Разные GPU на одном компьютере

Если видеокарты одного производителя сильно отличаются друг от друга или они от разных производителей (Nvidia и AMD), то объединить их не получится. Но можно использовать их для распределения задач. Например, на одной карте можно играть, а на другой стримить или заниматься видеомонтажом.

В случае карт от одного производителя, достаточно установить последние драйвера и система будет работать. Каждая плата будет работать дискретно и выполнять назначенное задание.

Если карты от разных компаний, то материнская плата должна иметь возможность работать с ними одновременно. Вначале надо вставить карту от AMD и установить драйвера. После этого выключить компьютер и вставить GPU Nvidia. После включения системы, установить драйвера для Nvidia. Перезагрузиться, карты будут работать отдельно.

При создании системы из двух карт нужно учитывать цели объединения и возможные расходы. Чаще выгодней купить одну топовую GPU, чем построить каскад из двух маломощных.

Последнее обновление — 12 октября 2019 в 12:46

Две видеокарты установленные на одном компьютере и объединенные при помощи SLI (Scalable Link Interface) от NVIDIA или CrossFire от AMD дают прирост в производительности 15-30%. Очень редко, в зависимости от оптимизации игр, прирост может достигать 50%. Технология AMD CrossFire оптимизирована заметно хуже, чем SLI от NVIDIA.

Способ 2: EVGA Precision X1

Альтернативой программе от МСИ будет инструмент тонкой настройки видеокарт от ЕВГА, также доступный бесплатно на сайте производителя.

Для лучших результатов стоит загрузить отдельный вариант программы – найдите на странице скачивания кнопку «Precision Standalone» и нажмите на неё.
Установите приложение на компьютер и запустите после инсталляции. Нужная нам опция называется «Fan Speed». Как и в случае с решением от MSI, доступны два режима конфигурирования – полуавтоматический, где скорость вращения кулеров задаётся движением слайдера, и ручной с тонкой настройкой поведения. Для доступа к последнему нажмите на кнопку «Auto», а затем в левой части окна кликните по позиции «FAN1».
Откроется раздел с настройкой графика охлаждения в зависимости от температуры. Работа с ним идентична таковому в МСИ Афтербёрнере, поэтому ознакомьтесь с шагами 5-6 предыдущего способа

Обратите внимание, что это решение позволяет отдельно настраивать поведение каждого кулера, если на вашей модели их установлено несколько и такая функция поддерживается БИОСом видеокарты.
Чтобы опции не сбивались при перезагрузке, нужно включить параметр автозапуска EVGA Precision X1 вместе с операционной системой. Для этого кликните по кнопке «Setup».
Далее отметьте пункты «Start with OS» и «Start Minimized», после чего воспользуйтесь кнопками «Apply» и «Save» внизу окна программы.

Пользоваться этим приложением не сложнее, чем аналогом от MSI, но есть важное отличие: EVGA полноценно поддерживает только NVIDIA RTX и GTX 10 серии производства этой компании, тогда как у более старых GPU и устройств от других вендоров поддержка ограничена

Что майнить на 1660 SUPER, самый выгодный алгоритм

Когда оборудование куплено и собрано в риг, нужно определить монету для добычи. Конечно, и заранее нужно просчитать выгоду от майнинга, но стоимость криптовалют на популярных криптовалютных биржах постоянно колеблется, поэтому нужно постоянно мониторить рынок в поисках самого выгодного варианта. Чтобы составить таблицу доходности по криптовалютам открываем калькулятор майнинга WhatToMine.

Альткоин GTX 1660 Ti
Профит ($)
24 часа
GTX 1660
Профит ($)
24 часа
GTX 1660 SUPER
Профит ($)
24 часа
GTX 1060 (6GB)
Профит ($)
24 часа
Ethereum
Ethash
0,42 0,35 0,44 0,30
Sero (SERO)
ProgPow
0.47 0.38 0.40 0.32
Firo (FIRO)
FiroPow
0.32 0.36 0.32 0.24
Conflux (CFX)
Octopus
0.41 0.33 0.37
Ergo (ERG)
Autolykos
0.31 0.29 0.33 0.26
Swap (XWP)
Cuckaroo29s
0.42 0.37 0.36 0.32
Aeternity (AE)
CuckooCycle
0.34 0.28 0.32 0.25
Ravencoin (RVN)
KawPow
0.41 0.33 0.33 0.28
Flux (FLUX)
Zelhash
0.36 0.33 0.31 0.25
Ryo (RYO)
CryptoNightGPU
0.35 0.34 0.31 0.22

Ethereum пока остается одним из самых выгодных альткоинов для майнинга. Но в принципе даже сейчас у графических адаптеров Nvidia есть несколько альтернативных вариантов работы. Проект Виталика Бутерина рано или поздно перейдет на PoS-алгоритм консенсуса и тогда AMD-майнерам придется туго. Доходы и так невысоки, а без эфира они станут еще меньше. Рентабельность зеленых карт из-за просадки рынка, конечно, тоже существенно упала. Но майнеры Nvidia по крайней имеют несколько примерно равных по профиту монет на выбор.

Биткоин и эфириум обладают большим потенциалом роста и переводить их в фиат даже по текущей, довольно высокой цене, наверное, не стоит. Запускать на 1660 майнинг Cryptonight8, после того как XMR ушла с этого алгоритма уже не имеет смысла. Вам может принести неплохой доход майнинг на 1660 Ti криптовалюты SERO (ProgPow) и Swap (Cuckaroo29s).

Но самым актуальным на данный момент является майнинг Ethereum. Используйте программы для майнинга T-rex и Phoenix Miner. Для майнинга криптомонет Swap и CFX используется программа NBminer, она подойдет и для эфира. Впрочем, уже завтра может появиться новый, более выгодный вариант. Держите руку на пульсе событий.

Самые лучшие игровые видеокарты NVidia

Лучшие видеокарты NVidia Geforce предназначены для обработки требовательных игр. Они способны справиться с огромными потоками данных, обеспечивая высокий fps, максимальную детализацию графики, а некоторые модели даже тянут 4k-разрешение.

EVGA GEFORCE RTX 2060 SUPER SC ULTRA GAMING

Пожалуй, лучшая видеокарта NVidia среднего сегмента (даже немного выше), которая уже может называться полноценным игровым устройством. Ее особенность – поддержка современной технологии трассировки в режиме реального времени. Видеокарта этого производителя интересна тем, что у нее качественная сборка, эстетичный дизайн и достойное охлаждение. В конструкции нет броских элементов и разноцветных огней, поэтому и стоимость на несколько пунктов ниже, чем у конкурентов, при той же производительности.

Характеристика Значение
Частота ядра/памяти 1830/14000 МГц
Видеопамять GDDR6 6 Гб
Разрядность шины 192 бит
Техпроцесс 12 нм

Плюсы

  • с легкостью справляется с 1080p и 1440p;
  • встроенная трассировка лучей;
  • наличие RTX и DLSS;
  • эффективное охлаждение;
  • тихая работа, до 60°С кулера даже не включаются.

Минусы

  • скудная комплектация;
  • не рассчитана на существенный разгон.

EVGA GEFORCE RTX 2060 SUPER SC ULTRA GAMING

MSI GEFORCE RTX 2060 GAMING 6G

Это представитель игрового класса – видеокарта с оптимальным балансом между ценой и качеством. Помимо функций RTX и DLSS, 20-я серия устройств лучше проявляет себя в работе с разрешением 1440p. Высокая производительность позволяет использовать ее для мониторов с повышенной частотой обновления – до 144 Гц. Благодаря DLSS, графическая карта может обрабатывать игры в высоком разрешении при достаточном fps для комфортного времяпровождения. Из-за высокой мощности, видеокарту лучше использовать в сочетании с Core i7 8700K, иначе устройство просто не раскроет своих возможностей.

Характеристика Значение
Частота ядра/памяти 1830/14000 МГц
Видеопамять GDDR6 6 Гб
Разрядность шины 192 бит
Техпроцесс 12 нм

Плюсы

  • 2 крупных кулера для качественного охлаждения;
  • в обычном режиме и при участии в простых играх кулера практически не работают;
  • оригинальный дизайн;
  • оптимальная производительность для современных игр, хотя и не в максимальном качестве;
  • трассировка лучей.

Минусы

  • небольшой объем видеопамяти, хотелось бы увидеть 8 Гб;
  • крупные габариты, система охлаждения выходит за края платы.

MSI GEFORCE RTX 2060 GAMING 6G

GIGABYTE GEFORCE RTX 2070 SUPER GAMING OC 3X 8G

Если есть сомнения, хороша ли видеокарта NVidia 2060 или может не справиться с поставленными задачами, лучше выбрать RTX 2070. Ее недавний апгрейд позволил вытягивать игры с разрешением 1440p при частоте кадров около 70-80 (в RTX 2060 – 60 fps). Среди полезных дополнений можно назвать трассировку лучей и суперсэмплинг с глубоким обучением. Характеристики видеокарты слегка уступают GTX 1080, но благодаря перечисленным технологиям устройство превосходит даже GTX 1080 Ti.

Характеристика Значение
Частота ядра/памяти 1830/14000 МГц
Видеопамять GDDR6 8 Гб
Разрядность шины 192 бит
Техпроцесс 12 нм

Плюсы

  • полноценная поддержка 4k-разрешения;
  • мощности хватает для использования в паре с монитором на 1440p/144Гц;
  • подходит для игровых мониторов на 240 Гц при FullHD-разрешении;
  • достаточный объем видеопамяти;
  • есть запас для дополнительного разгона.

Минусы

  • значения DLSS и RTX неизвестны;
  • существенный уровень шума под нагрузкой.

GIGABYTE GEFORCE RTX 2070 SUPER GAMING OC 3X 8G

GIGABYTE AORUS GEFORCE RTX 2080 TI XTREME

RTX 2080 Ti заслуживает право называться лучшей игровой видеокартой от NVidia, поскольку у нее есть значительное превосходством перед GTX 1080 Ti. Поддержка всех современных технологий RTX и DLSS позволяет устройству с легкостью обрабатывать 4k-контент, при чем в играх fps не будет просаживаться ниже комфортного минимума в 60 к/сек. Еще устройство можно рекомендовать тем, кто желает погрузиться в 3D-мир с помощью шлема виртуальной реальности. При этом в режиме 2k видеоадаптер готов выдавать 100 fps, если это позволит процессор.

Характеристика Значение
Частота ядра/памяти 1770/14140 МГц
Видеопамять GDDR6 11 Гб
Разрядность шины 352 бит
Техпроцесс 12 нм

Плюсы

  • полная ориентация на киберспортсменов;
  • реально улучшает качество графики;
  • работает на базе графического процессора Nvidia TU102, который хорошо поддается разгону;
  • 3 кулера, позволяющие разгонять устройство без дополнительного охлаждения;
  • премиум характеристики и дизайн.

Минусы

  • сможет себе позволить далеко не каждый;
  • кожух вентиляторов выполнен из пластика, что приводит к существенному нагреву в пик работы (до 85°С).

GIGABYTE AORUS GEFORCE RTX 2080 TI XTREME

Разгон видеокарт AMD RX 5ххх и 6ххх для майнинга

Отдельно обсудим разгон новых и весьма эффективных серий от производителя AMD. В отличие от карт NVidia, у этих карт нет специальных режимов или «умных режимов» работы, жестко прописанных в BIOS видеокарты.

Поэтому использование Windows ни коим образом не помогает добиться лучших результатов по скорости, а даже наоборот — снижает стабильность. Неудивительно, что подавляющее число «красных» майнеров (по цвету логотипа AMD) предпочитают более стабильные готовые системы на базе OS Linux, хорошим примером которых является Rave OS.

С использованием таких систем разгон карт очень прост:

  1. Разгоняем память на 900+ МГц
  2. ставим ядро на 1350-1375 МГц
  3. аккуратно с шагом 5 снижаем вольтаж ядра, пока оно стабильно (до 800 мВ смело, ниже в зависимости от карты)
  4. снижаем вольтаж памяти (до 800 смело, ниже проверяем стабильность)

В итоге получаем максимальный хешрейт при минимальном энергопотреблении.

Вот рекомендация по разгону AMD RX 5600 от пользователя этой видеокарты.

AMD RX 5600

Вот результаты по RX 5600.

Хешрейт AMD RX 5600

В отношении AMD RX 5700: ядро можно ставить 1300-1325-1350-1375, по памяти от 930 и понижаем по 5. Если не стабильно работают — тогда вплоть до 900. Вольтаж по 780.

AMD RX 5700

И итог по RX 5700.

Хешрейт AMD RX 5700

Для наглядности показываем реальное энергопотребление упомянутых видеокарт. Слева — результат RX 5600, справа RX 5700.

Энергопотребление RX 5600 и RX 5700

Итоги

Одной из наилучших карт в 2012 году в сегменте продуктов среднего класса стала NVidia GeForce GTX 660. Характеристики у нее на то время действительно были передовые. Но сейчас есть более свежие ускорители с более продвинутыми техническими параметрами и высоким уровнем быстродействия.

Выпущенная в 2012-м году видеокарта Nvidia GeForce GTX 660 считалась одним из лучших для своего времени бюджетных вариантов графических адаптеров. Хватает её возможностей и для запуска современных игр, хотя на геймерских ПК модель уже не устанавливают. За всё время выпуска было создано две модификации карты: с 2 Гб и 3 Гб памяти, однако 3-х гигабайтная версия была не такой популярной, как младшая.

Основные технические характеристики GTX 660 следующие:

  • число процессоров CUDA: 960- шт.;
  • количество текстурных блоков: 80 шт.;
  • разрядность шины памяти: 192 бит;
  • тактовая частота процессора: 980-1033 МГц;
  • объём памяти GDDR5: 2048 или 3072 Мбайт.

Среди других характеристик Nvidia GeForce GTX 660 стоит отметить уровень энергопотребления (TDP), который составляет 140 Вт. Модель поддерживает одновременную работу трёх мониторов. А разрешение монитора, подключённого к ПК с этой картой, может достигать 2048×1536 пикселей для аналогового порта и 3840×2160 пикселей для DisplayPort.

Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
RozBlog
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: