Сравнение характеристик
NVIDIA Tesla T4 | NVIDIA GeForce GTX TITAN X | |
---|---|---|
Архитектура | Turing | Maxwell 2.0 |
Кодовое имя | TU104 | GM200 |
Дата выпуска | 13 September 2018 | 17 March 2015 |
Место в рейтинге | 148 | 180 |
Тип | Workstation | Desktop |
Цена на дату первого выпуска | $999 | |
Цена сейчас | $1,999.99 | |
Соотношение цена/производительность (0-100) | 7.38 | |
Частота ядра в режиме Boost | 1515 MHz | 1075 MHz |
Частота ядра | 1005 MHz | 1000 MHz |
Технологический процесс | 12 nm | 28 nm |
Энергопотребление (TDP) | 75 Watt | 250 Watt |
Количество транзисторов | 13,600 million | 8,000 million |
Количество конвейеров CUDA | 3072 | |
Производительность с плавающей точкой | 6,691 gflops | |
Количество шейдерных процессоров | 3072 | |
Скорость текстурирования | 192 billion / sec | |
Видеоразъёмы | No outputs | 1x DVI, 1x HDMI, 3x DisplayPort, Dual Link DVI-I, HDMI 2.0, 3x DisplayPort 1.2 |
Аудиовход для HDMI | Internal | |
HDCP | ||
Максимальное разрешение VGA | 2048×1536 | |
Поддержка нескольких мониторов | ||
Интерфейс | PCIe 3.0 x16 | PCIe 3.0 x16 |
Дополнительные разъемы питания | None | 6-pin + 8-pin |
Шина | PCI Express 3.0 | |
Высота | 4.376″ (11.1 cm) | |
Длина | 10.5″ (26.7 cm) | |
Рекомендованный блок питания | 600 Watt | |
Поддержка SLI | 4x | |
DirectX | 12.0 (12_1) | 12.0 (12_1) |
OpenGL | 4.6 | 4.5 |
Частота памяти | 10000 MHz | 7.0 GB/s |
Максимальный размер памяти | 12 GB | |
Пропускная способность памяти | 336.5 GB / s | |
Ширина шины памяти | 384 Bit | |
Тип памяти | GDDR5 | |
CUDA | ||
GameStream | ||
GameWorks | ||
GeForce ShadowPlay | ||
GPU Boost |
Conclusion
We won’t make any final judgments on the new Titan X until we’ve successfully ripped one from the guts of a machine for further testing, but I think we can reach a few conclusions from these tests. No surprise: A dual Titan X setup isn’t worth it for the majority of people who plan to use it for gaming alone.
The power of dual Titan X’s may prove more worthy for someone who uses it for compute tasks as well as gaming, but that’s beyond the scope of today’s test. Still, it’s clear that for the average Joe or Jane who doesn’t game on a $2,000 5K monitor, a setup like this is hard to justify.
But again, that’s probably missing the point of it all. Most people don’t “get” the point of a $189,000 car or a tin of caviar that costs more than a dinner for four, and well, most people probably won’t “get” the point of a pair of powerful new Titan X cards either—unless they’re data scientists. When it comes to gaming, a glorious pair of SLI’d new-look Titan X cards are made for high rollers with bleeding-edge displays alone.
Дизайн и особенности
GeForce GTX Titan X основан на графическом чипе GM200, новомодном кусочке кремния, построенном на уже устоявшейся архитектуре Maxwell. Он имеет 3072 ядра CUDA — на 50 процентов больше, чем GeForce GTX 980. 12 ГБ памяти GDDR5 карты (работающей на эффективной 7 ГГц) работает на широкой 384-битной шине. Чрезвычайный объем памяти и широкая шина идеально подходят для больших текстурных файлов и высоких разрешений, и вместе они помогают GeForce GTX Titan X стать отличным 4K-геймером.
Вместо того, чтобы вычеркнуть полный список спецификаций, вот диаграмма наиболее важных, прямо из Nvidia…
Как вы можете видеть, GeForce GTX Titan X обеспечивает 50-процентное увеличение ядер CUDA и утроение памяти (на более широкой шине) по сравнению с GeForce GTX 980, хотя тактовая частота немного ниже. (Стандартная тактовая частота GeForce GTX 980 составляет 1126 МГц.) Номинальная тепловая мощность (TDP) GeForce GTX Titan X составляет 250 Вт, что намного выше, чем у GeForce GTX 980 — 165 Вт, но соответствует мощности предыдущего поколения Titan. карта, так что карта может быть отключена от шестиконтактного и восьмиконтактного разъема питания.
Это TDP означает, что вы можете привести в действие экстремальную игровую установку, построенную на GeForce GTX Titan X, используя только 600-ваттный блок питания. Вместо этого выберите AMD Radeon R9 295X2 с двумя графическими процессорами, и вам, возможно, придется обновить блок питания в вашей системе, что сводит на нет ценность. В случае R9 295X2 AMD рекомендует источник питания мощностью 1500 Вт и говорит, что два восьмиконтактных разъема должны быть способны выдавать объединенные 50 ампер. Достаточно сказать, что, хотя AMD продолжает показывать солидную ценность с точки зрения сырой производительности, требования к энергопотреблению ее текущих карт все больше и больше выходят за рамки с каждой новой картой на основе Maxwell, которую выпускает Nvidia.
Как и предыдущие карты Titan, Nvidia заявляет, что сторонние партнеры по картам будут придерживаться эталонного дизайна, что нас устраивает. (Nvidia также будет напрямую продавать версию под чистым брендом Nvidia.) Компания придерживалась заклинания «если не сломаешь, не чини», с точки зрения дизайна. GeForce GTX Titan X выглядит очень похоже на другие недавние Titans, а также на стандартную GeForce GTX 980, хотя на этот раз имеет черный внешний вид, похожий на Darth Vader.
Под капотом компания заявляет, что она ввела эпоксидную смолу в проводники и конденсаторы, чтобы уменьшить шум катушки или «скуление». Звуки катушек — это высокочастотный шум, который может исходить от некоторых плат и других компонентов при прохождении мощности через электромагнитные катушки. Мы не заметили проблему ни на одной из последних протестированных нами карт, но некоторые покупатели GeForce GTX 970 жаловались на то, что это проблема, поэтому приятно видеть, что на этот раз Nvidia принимает упреждающие меры.
Как и следовало ожидать, выбор портов на карте такой же, как у GeForce GTX 980 и других последних высокопроизводительных карт компании. Вы получаете один двухканальный порт DVI и три полноразмерных DisplayPorts, а порт HDMI 2.0, как ни странно, находится между DisplayPorts.
Как и GeForce GTX 980 и GTX 970, Titan X может управлять четырьмя дисплеями и тремя дисплеями 4K с частотой 60 Гц. Но вам определенно понадобится больше, чем один GeForce GTX Titan X, если вы планируете играть в сумасшедшие игры с тремя 4K-экранами в полном разрешении.
GeForce GTX Titan X определенно не подходит для большинства маленьких корпусов Mini-ITX. Несмотря на это, занимающий два слота и имеющий длину около 10, 5 дюймов, это далеко не самая большая карта, которую вы можете купить, и действительно впечатляюще компактная, учитывая, что это такое. Например, двухъядерный процессор AMD Radeon R9 295X2 имеет длину в фут, не считая внешнего радиатора.
В следующем разделе мы начнем наше обсуждение производительности, в котором мы проверили GeForce GTX Titan X на множестве конкурирующих карт, используя наш набор синтетических и игровых тестов. Конкурирующими картами были две другие карты Titan (GeForce GTX Titan Z и GTX Titan Black), а также GeForce GTX 980 от Nvidia. На стороне AMD мы сравнили GeForce GTX Titan X с Radeon R9 295X2 dual — Монстр GPU и ведущая одноядерная карта компании, когда мы писали это, Radeon R9 290X.
Сравнение видеокарт от разных производителей
Цена видеокарты Titan X 12 Gb начинается от 1200$ и зависит от производителя и объема памяти.
Предлагаем ознакомится с сравнительной характеристикой товаров от разных производителей (* – аналогично):
Продукт | Palit GeForce GTX TITAN X | MSI GeForce GTX TITAN X | ASUS GeForce GTX TITAN X |
---|---|---|---|
Тип видеокарты | игровая | ||
Наименование GPU | NVIDIA GeForce GTX TITAN X | ||
Код от производителя | NE5XTIX015KB-PG600F | ||
Кодовое имя GPU | GM 200 | ||
Тех.процесс | 28нм | ||
Поддерживается мониторов | четыре | ||
Разрешение GM200 (максимальное) | 5120 на 3200 | ||
Частота GPU | 1000Mhz | ||
Объем памяти | 12288Mb | ||
Тип памяти | GDDR5 | ||
Частота памяти | 7000 Mhz | 7010 Mhz | 7010 Mhz |
Разрядность шины памяти | 384 bit | ||
Частота RAMDAC | 400 Mhz | ||
Поддержка режима CrossFire /SLI | возможна | ||
Поддержка Quad SLI | возможна | * |
|
Разъемы | поддержка HDC, HDMI, DisplayPort x3 | ||
Версия HDMI | 2.0 | ||
Кол-во универсальных процессоров | 3072 | ||
Версия шейдеров | 5.0 | ||
Кол-во текстурных блоков | 192 | ||
Кол-во блоков растеризации | 96 | ||
Размеры | 267×112 мм | 280×111 мм | 267×111 мм |
Количество занимаемых слотов | 2 | ||
Цена | 74300 р. | 75000 р. | 75400 р. |
Сейчас в продаже нет этой модели ни от одного производителя. В январе 2018 года миру была представлена Geforce Titan V, которая в производительности в играх и в майнинге крипвалют выигрывает у аналогов в несколько раз.
NVIDIA Titan V
На момент написания этой статьи в продаже доступна только референсная версия NVIDIA Titan V, её мы и будем рассматривать дальше. Видеокарта поставляется в элегантной белой коробке. Комплекта поставки почти и нет: кроме самого Титана в коробке нашлись буклеты с описанием гарантии и установки, а также переходник DisplayPort – DVI.
-
006
-
008
-
007
-
009
Видеокарта выполнена в классическом референсном дизайне, который в NVIDIA зовётся Founders Edition. Массивная система охлаждения закрыта золотистым пластиковым кожухом c пластиковым окошком, через которое можно увидеть радиатор GPU. Охлаждается видеокарта при помощи стандартной турбины, а обратная сторона видеоадаптера защищена толстой металлической пластиной. Поэтому, если бы не надписи Titan V на кожухе, эту видеокарту можно было бы легко спутать со многими другими референсами NVIDIA.
Кожух видеокарты лишён какой-либо подсветки, которая обычно имеется у игровых видеокарт, что ещё раз выдаёт в NVIDIA Titan V сугубо рабочее решение, которое обычно ставят в закрытые, глухие корпуса. По своей высоте видеокарта займёт два слота PCIe, что вполне типично для современных видеоадаптеров.
Для подключения мониторов доступны три разъёма DisplayPort и один HDMI. Видеовыхода DVI у нового Титана нет, зато вместо него производитель смог увеличить отверстие для вентиляции, через которое будет выдуваться горячий воздух.
Внешне NVIDIA Titan V очень красивая видеокарта. Сочетание цветов в её палитре подобрано очень хорошо. Вот только с выходом совершенно новой архитектуры можно было выпустить и свежую систему охлаждения. Всё же, турбины постоянно бывают громче обычных вентиляторов, которые используются у других производителей видеоадаптеров. Узнаваемая классика — это прекрасно, но не в самой передовой отрасли.
-
010
-
024
-
023
-
022
-
021
-
020
-
019
-
018
-
017
-
016
-
015
-
014
-
013
-
012
-
011
Сравнение бенчмарков
GPU 1: NVIDIA Tesla T4GPU 2: NVIDIA GeForce GTX TITAN X
PassMark — G3D Mark |
|
|
||||
PassMark — G2D Mark |
|
|
||||
Geekbench — OpenCL |
|
|
||||
CompuBench 1.5 Desktop — Face Detection (mPixels/s) |
|
|
||||
CompuBench 1.5 Desktop — Ocean Surface Simulation (Frames/s) |
|
|
||||
CompuBench 1.5 Desktop — T-Rex (Frames/s) |
|
|
||||
CompuBench 1.5 Desktop — Video Composition (Frames/s) |
|
|
||||
CompuBench 1.5 Desktop — Bitcoin Mining (mHash/s) |
|
|
||||
GFXBench 4.0 — Car Chase Offscreen (Frames) |
|
|
||||
GFXBench 4.0 — Manhattan (Frames) |
|
|
||||
GFXBench 4.0 — T-Rex (Frames) |
|
|
||||
GFXBench 4.0 — Car Chase Offscreen (Fps) |
|
|
||||
GFXBench 4.0 — Manhattan (Fps) |
|
|
||||
GFXBench 4.0 — T-Rex (Fps) |
|
|
Название | NVIDIA Tesla T4 | NVIDIA GeForce GTX TITAN X |
---|---|---|
PassMark — G3D Mark | 10800 | 13250 |
PassMark — G2D Mark | 566 | 858 |
Geekbench — OpenCL | 61276 | 39047 |
CompuBench 1.5 Desktop — Face Detection (mPixels/s) | 127.622 | 157.231 |
CompuBench 1.5 Desktop — Ocean Surface Simulation (Frames/s) | 3026.812 | 1722.566 |
CompuBench 1.5 Desktop — T-Rex (Frames/s) | 18.798 | 12.245 |
CompuBench 1.5 Desktop — Video Composition (Frames/s) | 119.936 | 38.225 |
CompuBench 1.5 Desktop — Bitcoin Mining (mHash/s) | 910.721 | 518.554 |
GFXBench 4.0 — Car Chase Offscreen (Frames) | 14076 | 9834 |
GFXBench 4.0 — Manhattan (Frames) | 1976 | 3700 |
GFXBench 4.0 — T-Rex (Frames) | 1781 | 3343 |
GFXBench 4.0 — Car Chase Offscreen (Fps) | 14076 | 9834 |
GFXBench 4.0 — Manhattan (Fps) | 1976 | 3700 |
GFXBench 4.0 — T-Rex (Fps) | 1781 | 3343 |
3DMark Fire Strike — Graphics Score | 5355 |
ASUS GTX TITAN-6GD5
ASUS GTXTITAN-6GD5
Видеокарты
на
Первыми в Украине стали доступны видеокарты от компании ASUS. Рассматриваемый адаптер – GeForce GTX TITAN практически в первозданном виде. Лишь на обратной стороне PCB есть небольшой стикер с названием модели – GTX TITAN-6GD5.
Видеокарта ожидаемо имеет рекомендованную частотную формулу – 836/6008 МГц. От эталонной версии устройство отличает соответствующий идентификатор в прошивке.
Комплектация адаптера достаточно скромная. В поставку включено краткое руководство, диск с драйверами и фирменной утилитой для разгона GPU Tweak, переходник с DVI на VGA, а также переходник с пары разъемов Molex на шестиконтактный разъем для подключения дополнительного питания.
По мнению производителя, БП, который будет использоваться в системе с GeForce GTX TITAN, изначально будет оснащен 8-контактным силовым кабелем. Что же касается непосредственно требований к блоку, то предполагается, что это будет модель мощностью как минимум 600 Вт, способная обеспечить ток до 42 А по линии 12 В.
ASUS GTXTITAN-6GD5Уведомить о появлении в продаже |
|
Тип | Видеокарта |
GPU | GeForce GTX TITAN |
Объем памяти, МБ | 6144 |
Тип памяти | GDDR5 |
Интерфейс | PCI Express 3.0 |
Система охлаждения | активная |
Частоты работы GPU, МГц | 837-876 |
Частоты работы памяти, МГц | 6000 |
Шина памяти, бит | 384 |
Выходные разъемы | 2xDVI Dual-link (1xDVI-I и 1xDVI-D), 1xHDMI, 1xDisplay Port |
Размеры, мм | 266,7×111,1×38,1 |
Низкопрофильная | — |
Дополнительное питание | 1×6-pin, 1×8-pin |
Поддержка DirectX | DirectX 11.1 |
Разное | эксклюзивная утилита GPU Tweak для мониторинга и настройки параметров видеокарты, Nvidia GPU Boost 2.0 |
Технологии
GeForce GTX Titan X позиционируется производителем как игровая видеокарта, и это не зря — Nvidia снизила производительность FP64, и благодаря этому видеокарта перестала быть намного производительнее своих игровых братьев в тестах с двойной точностью. А версия видеокарт Titan славилась своей повышенно производительностью в работе с двойной точностью.
Зато кроме обычных технологий, присущих архитектуре Maxwell (многокадровое сглаживание (MFAA), динамическое суперразрешение (DSR) и многое другое) Nvidia добавила новые технологии 3D, а именно оптимизацию софта под очки виртуальной реальности. На примере того же Oculus Nvidia разработала две вспомогательные технологии:
— VR SLI — когда две видеокарты могут работать для каждого глаза отдельно.
— Асинхронный режим, когда данные гироскопа просчитывает видеокарта, что помогает экономить ресурсы системы.
Тестовый стенд:
- Процессор: Intel core i7 – 5960x (3.0GHz, Turbo boost 3.5GHz)
- Материнская плата: MSI X99S GAMING7
- Оперативная память: HyperX Fury 4x8Gb (2133MHz)
- Видеокарта: Nvidia GTX TitanX (reference)
- SSD накопитель: HyperX Predator PCI-E (480Gb)
- Куллер: Corsair H110
- Блок питания: Seasonic Xseries (1250W)
Тестовое ПО и Игры:
- 3DMark
- GPU-Z
- The Crew
- GTA V
- Battlefield 4
- Dragon Age: Inqusition
3D Mark выдал нам следующие результаты:
- Fire Strike Ultra — 4122
- Fire Strike Extreme — 7925
- Fire Strike — 15100
А вот что нам показал GPU-Z при нагрузке видеокарты:
Как видно по скринам, частота в бусте равна 1140 МГц, при этом видеокарта прогрелась до 80 градусов и вентилятор раскрутился до 2000 оборотов. В целом это нормальный показатель для референсной модели охлаждения. При этом, если температура поднималась до 83 градусов, частота в бусте падала до 1100-1070МГц, а кулер разгонялся до 2200-2400 оборотов в минуту.
Игры
В наше время, когда 4К-разрешением уже и смартфоны не удивишь, в игровой индустрии почему-то это вызывает крики ужаса и море негатива. Ведь для того чтобы поиграть в новые игры в таком разрешении, вам придётся потратить не одну тысячу долларов. И Titan X призван перебороть ваши страхи и взять весь этот ужас под свой контроль — ну, если у вас хватит на него денег. Я не хотел делать обычную таблицу с результатами, а решил поделиться ощущениями и проверить сразу два факта. Один — это сколько выдаст fps та или иная игра при максимальных настройках, и второй — это насколько и что надо понизить в игре, чтобы добиться 60 fps при разрешении 3840 х 2160.
GTA V
Скажу сразу, при ультранастройках и вытянутом на максимум сглаживании, в разрешении 3840 х 2160 игра выдавала 20-25 fps, при этом игра занимала около 5ГБ видеопамяти. Играбельными настройками оказались выключенное сглаживание, пониженные настройки теней и отражения и отключенные дополнительные настройки — после этого игра выдавала стабильные 60 fps и лишь в редких места проседала до 56-58 fps. Ещё захотелось проверить, что будет, если в игре использовать почти всю видеопамять, а тут, я напомню, её колоссальное количество составляет 12 ГБ. В итоге выставив настройку увеличенного масштаба изображения в несколько раз, я занял около 11 ГБ видеопамяти, и это был мрак — игра показывала 2-4 fps, и на это было очень больно смотреть.
Battlefield 4
Тут всё очень хорошо, стоило только выключить сглаживание в мультиплеере — и игра легко выдавала 70-80 fps при ультранастройках, со сглаживанием результаты были около 45-50 fps.
Dragon Age: Inquisition
Поиграть на максимальной графике со сглаживанием вышло только при 15 fps. Если же отключить сглаживание, получаем стабильные 30 fps, а если понизить тени и эффекты — можно добиться 50-60 fps. Честно говоря, в такой игре вполне хватит и 30 fps для полностью комфортного гейминга, и поверьте с таким разрешением вы будете поражаться красотам этой игры больше, чем нехваткой каких то fps)
Архитектура NVIDIA Volta
При создании архитектуры NVIDIA Volta в компании сделали ставку на сложные вычисления с плавающей запятой: FP32 и FP64. Такие расчёты необходимы при сложных научных вычислениях и обучении нейросетей. Видимо, в NVIDIA решили сделать жизнь геймеров проще, чтобы майнеры и разработчики ИИ не раскупали все игровые видеокарты оптовыми партиями.
Архитектура нового видеочипа GV100 очень заметно отличается от привычной архитектуры «Паскалей» и его предшественников. Видеоядро по-прежнему состоит из потоковых мультипроцессоров (Streaming Multiprocessors, SM), теперь они разделены на четыре вычислительных блока (вместо двух у Pascal). Внутри каждого блока находится 4 текстурных блока, по 64 ядра FP32 и INT32, 32 ядра FP64 и 8 тензорных ядер.
Тензорные ядра созданы для матричных вычислений со смешанной точностью, вида «D = A x B + C». Каждое такое ядро способно выполнить 64 таких операции за один такт. Именно такие расчёты требуются для обучения нейросетей. Поэтому NVIDIA Titan V и стоит рассматривать как видеокарту, которая нужная не для игр и рендеринга видео, а для гораздо более сложной и трудной работы.
Если говорить о приросте производительности (всё ещё научной, не игровой), то NVIDIA GV100 превзойдёт P100 на 80% в операциях мультиматричного перемножения и в 9 раз при таком же умножении со смешанной точностью. Большой скачок вперёд для NVIDIA.
-
003
-
004
В результате, в одном чипе NVIDIA GV100 находится 80 потоковых мультипроцессоров, что в итоге даёт видеокарте 5 120 потоковых процессоров, 320 текстурных блоков и 96 блоков растеризации. При этом в GV100 архитектура Volta не используется на полную мощность: в этом GPU не задействованы 4 потоковых мультипроцессора. Либо у NVIDIA есть проблемы с выходом полностью рабочих GPU, либо этот прирост производительности припасён на будущее. Что касается видеопамяти, то в Titan V используется памяти HBM2. Каждый стек памяти подключён к двум контроллерам, а всего в Titan V используется 8 контроллеров памяти, что даёт совокупную шину памяти в 4096 бит. Всего в GV100 используется 21 млрд транзисторов, а площадь кристалла составляет 815 мм^2. Даже по меркам современных видеокарт это очень большой GPU.
3840×2160 Bechmark Results, Average Frames Per Second
SLI Scaling | 54% | 77% | 76% | 70% | 87%/87% | 88% |
---|---|---|---|---|---|---|
Metro: Last Light |
Arkham Origins |
Hitman: Absolution |
Shadow of Mordor |
Tomb Raider* |
Unigine Heaven |
|
Titan X | 35 | 53 | 33 | 44 | 44/60 | 26 |
Titan X SLI | 54 | 94 | 58 | 75 | 83/112 | 49 |
3-Way SLI | 53 | 110 | 78 | 89 | 119/161 | 70 |
3-Way Scaling | N/A | 17% | 34% | 19% | 43% /43% | 43% |
Titan | 24 | 34 | 22 | 25 | 26/37 | 18 |
980 | 32 | 41 | 24 | 37 | 36/48 | 20 |
980 SLI | 46 | 74 | 44 | 59 | 64/84 | 35 |
SLI Scaling | 44% | 80% | 83% | 60% | 77%/75% | 75% |
970 | 24 | 32 | 19 | 28 | 27/37 | 15 |
780 Ti | 27 | 38 | 23 | 32 | 29/40 | 19 |
780 | 26 | 35 | 23 | 30 | 27/38 | 18 |
290X | 28 | 41 | 29 | 37 | 31/43 | 17 |
* TressFX on/TressFX off
We’re benchmarking these games on their highest presets with 4x multi-sample anti-aliasing (or in Tomb Raider’s case, 2x super-sample anti-aliasing, since it has no MSAA option), so you’re not going to see ideal performance here. We push these cards by design, rather than aiming for playable framerates. At the prices you’re paying for these cards, you shouldn’t have to make many compromises. Even with a second Titan X in the mix, though, we still can’t hit 60fps across the board. Granted, at 4K, you probably don’t need 4xMSAA, but it is interesting to see just how much this resolution affects performance. What’s also interesting is how much the SLI scaling varies from game to game. The Titan X is a lot more constistent, but both it and the GTX 980 struggle with Metro: Last Light (which, it should be said, is an AMD-friendly game, as is Hitman: Absolution).
When we add the third Titan-X (I think they’re multiplying when we’re not looking), we get a smaller performance bump, but this is to be expected. What we didn’t see coming were the particularly modest gains in Batman and Shadow of Mordor, indicating that our CPU is hitting a wall (at least, at its stock clock speed). So this addition to our benchmarks has been educational for us as well. Metro: Last Light also didn’t even recognize the third GPU, so we’re considering dropping that game from our benchmark suite, because this is not the first time it’s happened. And upgrading our testing rig to a 5960X is now a high priority. We’ll also experiment with overclocking the 3960X that’s currently installed.
In the coming days, we plan to get you some more multi-GPU benches to compare against the Titan X. In the meantime, we hope you found these new numbers both delicious and nutritious.
Небеса 4.0
Наш тест производительности Heaven DirectX 11 — это не просто игра, а умопомрачительная тренировка DirectX 11, которая отображает сложный игровой графический сценарий. Это разработано Unigine.
Здесь GeForce GTX Titan X снова поднялся далеко впереди GeForce GTX 980 и прошлогоднего GTX Titan Black. Но обе двухчиповые карты, GeForce GTX Titan Z и Radeon R9 295X2, работали лучше. И, что интересно, ни одна из этих карт не достигает 30 кадров в секунду (fps) при этих настройках. Однако, чтобы быть справедливым, при таком разрешении вы, вероятно, можете сбросить настройку AA с 8X до 2X (или даже отключить ее), не заметив большой разницы.
Разгон
Система динамического ускорения Turbo Boost несколько усложняет жизнь энтузиастам, желающим самостоятельно нарастить производительность своей видеокарты. Возможность подстраивать тактовую частоту в зависимости от текущего энергопотребления не всегда идет на пользу, когда нужно добиться стабильных прогнозируемых результатов. В случае с Turbo Boost 2.0 задача еще больше усложняется, потому как теперь необходимо следить, чтобы температура графического чипа не превышала заданный предел. В противном случае, несмотря на установку более высокого базового значения, при увеличенном нагреве автоматический прирост частоты будет ниже, что приведет к потере быстродействия.
При самостоятельном тюнинге GeForce GTX TITAN, ограничитель мощности (Power Limit) можно сдвинуть до 106%, тогда как температуру Temp Limit с базовых 80 градусов можно увеличить до 95 С.
Во время разгона GeForce GTX TITAN важно сохранить баланс, удерживая температуру графического чипа на приемлемом уровне. Так или иначе, фактическая частота GPU будет оставаться величиной переменной, изменяемой в определенном диапазоне в каждый конкретный момент времени
Потому в данном случае разгон предполагает возможность сдвинуть рамки, в которых Turbo Boost будет регулировать значение частоты.
После экспериментов нам удалось повысить базовую тактовую частоту GPU c 836 до 988 МГц (+18%), тогда как память стабильно работала на 6760 МГц (1690 МГц).
В этом случае во время игровой нагрузки пиковые значения краткосрочно достигали 1162 МГц, однако в особенно сложных режимах частота снижалась до 1071–1097 МГц.
Искусные умельцы уже смогли добиться стабильной работы GK110 на 1775 МГц, однако для этого понадобились не только специальные стаканы и декалитры жидкого азота, но и усовершенствование подсистемы питания видеокарты.
Обобщая полученные данные, видим, что при прочих равных, частотный потенциал чипа GK110 ожидаемо ниже, чем у более компактного GK104, который энтузиасты давно уже смогли раскочегарить до 2 ГГц. Несмотря на идентичный техпроцесс, вдвое большее количество транзисторов и увеличенная площадь кристалла не могли не сказаться на способностях работы с повышенными частотами. Однако, не будем забывать, что удельный вес каждого мегагерца для обоих случаев несравним.
Печатная плата
Печатная плата напоминает классический образец: вокруг чипа распаяны модули памяти, а подсистема питания расположена правее. Все, включая чипы памяти и силовые элементы, охлаждается сплошной металлической пластиной, на которой расположен вентилятор.
На обратной стороне расположены 12 чипов памяти, которым не помешало бы дополнительное охлаждение, особенно с учетом возможного разгона.
Новый чип получился весьма экономичным и не требует повышенного внимания при отводе тепла. Кристалл для защиты от сколов снабжен металлической рамкой. Данный образец датируется 47-ой неделей 2014 года и промаркирован как GM200-400-A1.
Модули памяти набраны 24 микросхемами с маркировкой H5GQ4H24MFR-R2C производства SK hynix.
Подсистема питания GPU 6-ти фазная, еще две фазы отведены на память. Управляет питанием ШИМ-контроллер NCP 81174. В качестве транзисторов используются интеллектуальные ключи FDMF6820A, производства Fairchild.
Для питания подсветки и вентилятора предусмотрены разъемы на два и четыре пина соответственно.
Остальные 12 чипов памяти расположены с обратной стороны и под нагрузкой существенно нагреваются.
Конфигурация тестового стенда
- Процессор: Intel Core i7-4790K (4000 МГц);
- Материнская плата: SABERTOOTH Z97 MARK 1, версия BIOS 2303;
- Кулер: Corsair H-110;
- Термоинтерфейс: Arctic Cooling MX-2;
- Память: 2 x 8 Гбайт DDR3 2400, Kingston HyperX Savage HX324C11SRK2/16;
- Видеокарта 1: GeForce GTX TITAN X (1000 / 7000 МГц (ядро/память));
- Видеокарта 2: EVGA GeForce GTX 980 Superclocked (1241 / 7010 МГц (ядро/память));
- Накопитель SSD: Samsung 840 Pro 256 Гбайт;
- Регулятор вращения вентиляторов: Schyte Kaze Q-12;
- Блок питания: Corsair AX860, 860 Ватт;
- Корпус: NZXT Switch 810;
- Монитор: VIEWSONIC VP2770-LED;
- Операционная система: Windows 7 64-bit Service Pack 1;
- Драйвера: Nvidia GeForce 347.88; AMD Catalyst 14.12 Omega.
В качестве центрального процессора использовался Intel Core i7-4790K, при этом частота процессора была номинальной. HyperThreading и TurboBoost в процессе тестирования были включены. В качестве платформы использовалась материнская плата SABERTOOTH Z97 MARK 1 (версия BIOS 2303). Термоинтерфейс на графическом чипе соответствует заводскому.
Рассматриваемый экземпляр NVIDIA GeForce GTX TITAN X является эталонным образцом с референсной системой охлаждения. Однако следует отметить, что термоинтерфейс был заменен со стандартного на Arctic Cooling MX-2.
При установке драйверов Nvidia GeForce 347.88 столкнулся с проблемой отсутствия доступа к некоторым параметрам. Для того, чтобы все работало, вам потребуется обновить GeForce Experience.
Температура и разгон
Для разгона использовалась утилита MSI Afterburner, разгон осуществлялся без поднятия напряжения:
- Частоту GPU удалось повысить на 245 МГц, что в итоговом варианте составило 1247 МГц. При этом, значение динамической частоты достигло показателя 1321 МГц. Но в ходе тестирования, было зафиксировано еще большее значение, частота GPU достигла показателя в 1435 МГц и это без повышения питающего напряжения, потрясающе!
- Частота памяти была увеличена на 520 МГц и достигла значения 2013 МГц (8 ГГц QDR).
Столь высокий результат был достигнут благодаря внушительному запасу по графическому ядру. NVIDIA в очередной раз доказала плюсы архитектуры Maxwell, которые сочетают в себе хорошую энергоэффективность в соотношении с производительностью. Вполне вероятно, что в будущем появятся еще несколько моделей на базе GM200 и они будут включены в верхний ценовой сегмент.
Тестирование происходило в открытом корпусе при комнатной температуре в 25 градусов. В режиме бездействия частота GPU и памяти снижается до 135/405 МГц, это напрямую влияет на энергоэффективность и улучшает температурные показатели.
Система охлаждения хорошо справляется со своей прямой задачей и даже под максимальной нагрузкой температура не превышает 84 градусов.
Скорость вентилятора варьируется в зависимости от загруженности видеокарты (от 1037 до 2433 об/мин.). Хочется отметить, что при достижении высоких температур, обороты вентилятора заметно повышаются, что препятствует дальнейшему росту температуры, фиксируя ее в пределах 84 градусов. При замене термопасты можно надеяться на некоторое снижение оборотов при максимальном уровне загрузки, т.е. видеокарта станет тише работать, но рабочая температура останется в тех же заданных пределах. Любителям тишины данная система охлаждения не подойдет, так как под нагрузкой шум от вентилятора становится назойливым.
Внешний вид
Как говорится, «встречают по одежке», так что будем разглядывать внешний вид этого Титана. Хоть у нас и референсный вариант видеокарты, но он приятно отличается от своих собратьев. Правда, технология охлаждения осталось прежней, зато видеокарту перекрасили в чёрный цвет и выглядит она куда привлекательнее.
Сама конструкция позаимствована у GTX 780 Ti, а значит, вместо тепловых трубок здесь используется испарительная камера. На боковой панели красуется зелёная надпись «GEFORCE GTX», которую можно легко настроить в отдельном приложения от Nvidia — GeForce Experience.
Честно говоря, взглянув на промофотки этой видеокарты на сайте, ожидаешь увидеть ещё мега крутую подсветку куллера, но тут, к сожалению, облом, её попросту нету.
Из разъёмов на задней панели присутствуют: три Displat Port и по одному DVI и HDMI, при этом одновременно могут работать только 3 видеовыхода.
Specs
The Titan X is Maxwell without compromise. It’s the first GPU from Nvidia that makes use of the GM200 core, which carries 8 billion transistors in a 28nm die. It consists of six Graphics Processing Clusters, each of which contains four Streaming Multiprocessors Units, with 128 cores in each SMM block. That adds up to 24 SMM Units, 3072 CUDA Cores, 192 Texture Mapping Units and 96 ROPs.
Aside from the obvious increases in ROPs and CUDA Cores, GM200 is notable for bringing back the 384-bit memory system of the original GTX Titan, GTX 780 and GTX 780 Ti. Armed with a huge 12GB of 7GHz memory, the Titan X’s memory is able to shift data at 336.5 GB/sec, a 50 percent increase over the GTX 980. Whether or not you actually need all that memory is debatable.
While it’s certainly possible to max out 4GB of VRAM (just ask a disgruntled GTX 970 owner about that one), the obvious move would be to include 8GB. Even if you ran multiple displays and games at 4K with some seriously beefy textures, that’d be a lot of memory to fill. But hey, while no GPU is ever really future proof, with 12GB of VRAM on board, the Titan X will be able keep up with the ever increasing VRAM requirements of games for far longer than your average graphics card.
GPU |
GTX Titan X |
GTX 980 |
GTX 970 |
CUDA Cores |
3072 |
2048 |
1664 |
Base Clock |
1000 MHz |
1126 MHz |
1050 MHz |
GPU Boost Clock |
1075 MHz |
1216 MHz |
1178 MHz |
Memory |
12GB |
4GB |
4GB |
Memory Data Rate |
7000 MHz |
7000 MHz |
7000 MHz |
Memory Bandwidth |
336.5 GB/s |
224 GB/s |
196 GB/s |
Memory Interface |
384-bit |
256-bit |
256-bit |
ROPs |
96 |
64 |
56 |
TDP |
250W |
165W |
145W |
Fabrication Process |
28-nm |
28-nm |
28-nm |
What hasn’t increased over the GTX 980 is the clock speed, which is lower by a few hundred MHz. However, as the benchmarks below show, the vastly increased CUDA cores and ROPs more than make up the difference. And hey, if you’re into overclocking, the Titan X’s 6+2 phase design (6 phases for the GPU, 2 for the memory) means you can crank up the power target to 110%, and the wattage from 250W to a 275W. That leaves quite a bit of headroom for overclocking, even under air. Nvidia claims that speeds of 1.4GHz are possible. While I didn’t quite hit that in my testing, hitting 1.2GHz was relatively easy.
The eagle-eyed among you will have noticed that the Titan X’s 250W TDP represents a significant increase in wattage over the 165W of the GTX 980. That’s still less than the near 300W of the R9 290X, the power-efficient architecture giving Nvidia the space to increase performance, without dramatically heat output and needing a particularly exotic cooling solution. Still, you’ll need 6 and 8-pin power from your power supply this time, with Nvidia recommending a minimum of a 600W power supply to get the job done.
One major change from the previous GTX Titan is with the Titan X’s double-precision performance. Like the GTX 980, the Titan X’s double-precision performance is 1/32 the rate of single-precision performance. That’s not of particular importance for gamers, but scientific types making use of double-precision instructions will find the Titan X lacking; perhaps Nvidia grew wary of people using the Titan as a cheaper alternative to its Tesla cards. Whatever the reason, Nvidia is recommending the $3000 GTX Titan Z as the best GPU for those who need double-precision.
Aside from the snazzy black exterior, the Titan X uses the same excellent reference cooler that launched with the original GTX Titan and made its way though Nvidia’s high-end models such as the GTX 980. However, unlike the GTX 980, Nvidia is only allowing partners to release cards with the reference cooler, so don’t expect the likes of MSI’s excellent Twin Frozr cooling system to be hitting Titans anytime soon.
Not that it matters too much. In testing, I found the GTX Titan X to be relatively quiet. However, thanks to increased wattage, it is noticeably louder than the 980 under load. It’s not overly distracting by any means, and it’s certainly quieter than AMD’s cards, but it’s something to bear in mind if noise is a big issue for you. In terms of outputs, the Titan X sports three full size display ports, one HDMI 2.0 port, and one dual-link DVI. There’s also support for up to four-way SLI, should you have insanely large wads of cash to spare.
Улучшение производительности для майнинга
Компания сделала упор на игровую производительность. В сравнении с и видеокартой, Geforce GTX Titan X 12 Gb майнинг не улучшает, а расход при этом больше. Все видеокарты серии Titan отличаются своей производительностью в вычислениях с двойной точностью FP32 и INT8. Это позволяет считать серию карт ускорителями профессиональных классов. Однако модель с чипом GM200 таковой не является, так как множество тестов показывает снижение производительности в вычислении хешей и прочих операциях. Производительность для добычи криптовалют всего лишь 37.45 МХэш/с.
Новая карта от этого же производителя Titan V дает показатели больше в 2,5 раза. В разогнанном состоянии Titan V дала показатель в 82.07 МХэш/с.