Nvidia titan x pascal vs nvidia geforce gtx titan x

Архитектура[10]

Новые возможности в GP10x:

  • Возможность вычислений CUDA 6.0 (только на чипе GP100), 6.1 (на чипах GP102, GP104, GP106, GP107, GP108)
  • Интерфейс DisplayPort 1.4
  • Интерфейс HDMI 2.0b
  • Четвёртое поколение технологии Delta Color Compression, которая сжимает данные для увеличения пропускной способности памяти.
  • Функции аппаратного ускорения декодирования видео PureVideo, поддержка HEVC HDR10 (10 bit), HDR12 (12 bit) (GM200 и GM204 не имеют этой функции).
  • Поддержка технологии HDCP 2.2 для 4K Контента, защищённого DRM воспроизведения и потоковой передачи данных (GM200 и GM204 не поддерживает HDCP 2.2, в отличие от GM206)
  • NVENC HEVC HDR10 10 bit аппаратное декодирование
  • GPU Boost 3.0
  • Simultaneous Multi-Projection
  • Новый контроллер памяти GDDR5X и поддержка стандарта GDDR5 (GP102, GP104)
  • Впервые использовалась память стандарта HBM2 в старшем чипе GP100
  • Динамическая балансировка нагрузки системы планирования.Благодаря поддержке асинхронных вычислений архитектура Pascal может заниматься несколькими процессами одновременно, что позволяет максимально загрузить GPU.
  • Тройная буферизация реализована на уровне драйвера. Компания NVIDIA называет это решение «Fast Sync».

Начиная с Windows 10 версии 2004 появилась поддержка использования аппаратного планировщика видеокарты для уменьшения задержек и повышения производительности, что требует драйвера уровня WDDM 2.7.

Улучшение производительности для майнинга

Компания сделала упор на игровую производительность. В сравнении с и видеокартой, Geforce GTX Titan X 12 Gb майнинг не улучшает, а расход при этом больше. Все видеокарты серии Titan отличаются своей производительностью в вычислениях с двойной точностью FP32 и INT8. Это позволяет считать серию карт ускорителями профессиональных классов. Однако модель с чипом GM200 таковой не является, так как множество тестов показывает снижение производительности в вычислении хешей и прочих операциях. Производительность для добычи криптовалют всего лишь 37.45 МХэш/с.

Новая карта от этого же производителя Titan V дает показатели больше в 2,5 раза. В разогнанном состоянии Titan V дала показатель в 82.07 МХэш/с.

Технологии

GeForce GTX Titan X позиционируется производителем как игровая видеокарта, и это не зря — Nvidia снизила производительность FP64, и благодаря этому видеокарта перестала быть намного производительнее своих игровых братьев в тестах с двойной точностью. А версия видеокарт Titan славилась своей повышенно производительностью в работе с двойной точностью.

Зато кроме обычных технологий, присущих архитектуре Maxwell (многокадровое сглаживание (MFAA), динамическое суперразрешение (DSR) и многое другое) Nvidia добавила новые технологии 3D, а именно оптимизацию софта под очки виртуальной реальности. На примере того же Oculus Nvidia разработала две вспомогательные технологии:

— VR SLI — когда две видеокарты могут работать для каждого глаза отдельно.

— Асинхронный режим, когда данные гироскопа просчитывает видеокарта, что помогает экономить ресурсы системы.

Тестовый стенд:

  • Процессор: Intel core i7 – 5960x (3.0GHz, Turbo boost 3.5GHz)
  • Материнская плата: MSI X99S GAMING7
  • Оперативная память: HyperX Fury 4x8Gb (2133MHz)
  • Видеокарта: Nvidia GTX TitanX (reference)
  • SSD накопитель: HyperX Predator PCI-E (480Gb)
  • Куллер: Corsair H110
  • Блок питания: Seasonic Xseries (1250W)

Тестовое ПО и Игры:

  • 3DMark
  • GPU-Z
  • The Crew
  • GTA V
  • Battlefield 4
  • Dragon Age: Inqusition

3D Mark выдал нам следующие результаты:

  • Fire Strike Ultra — 4122
  • Fire Strike Extreme — 7925
  • Fire Strike — 15100

А вот что нам показал GPU-Z при нагрузке видеокарты:

Как видно по скринам, частота в бусте равна 1140 МГц, при этом видеокарта прогрелась до 80 градусов и вентилятор раскрутился до 2000 оборотов. В целом это нормальный показатель для референсной модели охлаждения. При этом, если температура поднималась до 83 градусов, частота в бусте падала до 1100-1070МГц, а кулер разгонялся до 2200-2400 оборотов в минуту.

Игры

В наше время, когда 4К-разрешением уже и смартфоны не удивишь, в игровой индустрии почему-то это вызывает крики ужаса и море негатива. Ведь для того чтобы поиграть в новые игры в таком разрешении, вам придётся потратить не одну тысячу долларов. И Titan X призван перебороть ваши страхи и взять весь этот ужас под свой контроль — ну, если у вас хватит на него денег. Я не хотел делать обычную таблицу с результатами, а решил поделиться ощущениями и проверить сразу два факта. Один — это сколько выдаст fps та или иная игра при максимальных настройках, и второй — это насколько и что надо понизить в игре, чтобы добиться 60 fps при разрешении 3840 х 2160.

GTA V

Скажу сразу, при ультранастройках и вытянутом на максимум сглаживании, в разрешении 3840 х 2160 игра выдавала 20-25 fps, при этом игра занимала около 5ГБ видеопамяти. Играбельными настройками оказались выключенное сглаживание, пониженные настройки теней и отражения и отключенные дополнительные настройки — после этого игра выдавала стабильные 60 fps и лишь в редких места проседала до 56-58 fps. Ещё захотелось проверить, что будет, если в игре использовать почти всю видеопамять, а тут, я напомню, её колоссальное количество составляет 12 ГБ. В итоге выставив настройку увеличенного масштаба изображения в несколько раз, я занял около 11 ГБ видеопамяти, и это был мрак — игра показывала 2-4 fps, и на это было очень больно смотреть.

Battlefield 4

Тут всё очень хорошо, стоило только выключить сглаживание в мультиплеере — и игра легко выдавала 70-80 fps при ультранастройках, со сглаживанием результаты были около 45-50 fps.

Dragon Age: Inquisition

Поиграть на максимальной графике со сглаживанием вышло только при 15 fps. Если же отключить сглаживание, получаем стабильные 30 fps, а если понизить тени и эффекты — можно добиться 50-60 fps. Честно говоря, в такой игре вполне хватит и 30 fps для полностью комфортного гейминга, и поверьте с таким разрешением вы будете поражаться красотам этой игры больше, чем нехваткой каких то fps)

Конфигурация тестового стенда

  • Процессор: Intel Core i7-4790K (4000 МГц);
  • Материнская плата: SABERTOOTH Z97 MARK 1, версия BIOS 2303;
  • Кулер: Corsair H-110;
  • Термоинтерфейс: Arctic Cooling MX-2;
  • Память: 2 x 8 Гбайт DDR3 2400, Kingston HyperX Savage HX324C11SRK2/16;
  • Видеокарта 1: GeForce GTX TITAN X (1000 / 7000 МГц (ядро/память));
  • Видеокарта 2: EVGA GeForce GTX 980 Superclocked (1241 / 7010 МГц (ядро/память));
  • Накопитель SSD: Samsung 840 Pro 256 Гбайт;
  • Регулятор вращения вентиляторов: Schyte Kaze Q-12;
  • Блок питания: Corsair AX860, 860 Ватт;
  • Корпус: NZXT Switch 810;
  • Монитор: VIEWSONIC VP2770-LED;
  • Операционная система: Windows 7 64-bit Service Pack 1;
  • Драйвера: Nvidia GeForce 347.88; AMD Catalyst 14.12 Omega.

В качестве центрального процессора использовался Intel Core i7-4790K, при этом частота процессора была номинальной. HyperThreading и TurboBoost в процессе тестирования были включены. В качестве платформы использовалась материнская плата SABERTOOTH Z97 MARK 1 (версия BIOS 2303). Термоинтерфейс на графическом чипе соответствует заводскому.

Рассматриваемый экземпляр NVIDIA GeForce GTX TITAN X является эталонным образцом с референсной системой охлаждения. Однако следует отметить, что термоинтерфейс был заменен со стандартного на Arctic Cooling MX-2.

При установке драйверов Nvidia GeForce 347.88 столкнулся с проблемой отсутствия доступа к некоторым параметрам. Для того, чтобы все работало, вам потребуется обновить GeForce Experience.

Драйвера для Geforce Titan X

Программное обеспечение для этой серии карт легко можно найти на сайте производителя

Обращаем внимание, что в январе 2018 года были выпущены обновленные драйвера, которые справились с уязвимостью Spectre. Для этой линейки актуальные драйвера GeForce 390.65 WHQL

Хоть до этого проблема и не затрагивала чипы GeForce, однако стоит перестраховаться и обновить пакет драйверов, так как они могут быть уязвимы по вариантам атак Spectre CVE-2017-5715. Традиционно в обновления попали паки Game Ready, так как в ряде игр было замечено появление артефактов.

Для Windows 10

Размер файла: ~400.00 МБВерсия драйвера: 391.35 (WHQL) от 27.03.2018;Язык: РусскийОперационная система: Windows 10 32/64-bit, Windows 7 32/64-bit, Windows 8.1 32/64-bit, Windows 8 32/64-bit, Windows Vista

Внешний вид

Как говорится, «встречают по одежке», так что будем разглядывать внешний вид этого Титана. Хоть у нас и референсный вариант видеокарты, но он приятно отличается от своих собратьев. Правда, технология охлаждения осталось прежней, зато видеокарту перекрасили в чёрный цвет и выглядит она куда привлекательнее.

Сама конструкция позаимствована у GTX 780 Ti, а значит, вместо тепловых трубок здесь используется испарительная камера. На боковой панели красуется зелёная надпись «GEFORCE GTX», которую можно легко настроить в отдельном приложения от Nvidia — GeForce Experience.

Честно говоря, взглянув на промофотки этой видеокарты на сайте, ожидаешь увидеть ещё мега крутую подсветку куллера, но тут, к сожалению, облом, её попросту нету.

Из разъёмов на задней панели присутствуют: три Displat Port и по одному DVI и HDMI, при этом одновременно могут работать только 3 видеовыхода.

Дизайн и особенности

GeForce GTX Titan X основан на графическом чипе GM200, новомодном кусочке кремния, построенном на уже устоявшейся архитектуре Maxwell. Он имеет 3072 ядра CUDA — на 50 процентов больше, чем GeForce GTX 980. 12 ГБ памяти GDDR5 карты (работающей на эффективной 7 ГГц) работает на широкой 384-битной шине. Чрезвычайный объем памяти и широкая шина идеально подходят для больших текстурных файлов и высоких разрешений, и вместе они помогают GeForce GTX Titan X стать отличным 4K-геймером.

Вместо того, чтобы вычеркнуть полный список спецификаций, вот диаграмма наиболее важных, прямо из Nvidia…

Как вы можете видеть, GeForce GTX Titan X обеспечивает 50-процентное увеличение ядер CUDA и утроение памяти (на более широкой шине) по сравнению с GeForce GTX 980, хотя тактовая частота немного ниже. (Стандартная тактовая частота GeForce GTX 980 составляет 1126 МГц.) Номинальная тепловая мощность (TDP) GeForce GTX Titan X составляет 250 Вт, что намного выше, чем у GeForce GTX 980 — 165 Вт, но соответствует мощности предыдущего поколения Titan. карта, так что карта может быть отключена от шестиконтактного и восьмиконтактного разъема питания.

Это TDP означает, что вы можете привести в действие экстремальную игровую установку, построенную на GeForce GTX Titan X, используя только 600-ваттный блок питания. Вместо этого выберите AMD Radeon R9 295X2 с двумя графическими процессорами, и вам, возможно, придется обновить блок питания в вашей системе, что сводит на нет ценность. В случае R9 295X2 AMD рекомендует источник питания мощностью 1500 Вт и говорит, что два восьмиконтактных разъема должны быть способны выдавать объединенные 50 ампер. Достаточно сказать, что, хотя AMD продолжает показывать солидную ценность с точки зрения сырой производительности, требования к энергопотреблению ее текущих карт все больше и больше выходят за рамки с каждой новой картой на основе Maxwell, которую выпускает Nvidia.

Как и предыдущие карты Titan, Nvidia заявляет, что сторонние партнеры по картам будут придерживаться эталонного дизайна, что нас устраивает. (Nvidia также будет напрямую продавать версию под чистым брендом Nvidia.) Компания придерживалась заклинания «если не сломаешь, не чини», с точки зрения дизайна. GeForce GTX Titan X выглядит очень похоже на другие недавние Titans, а также на стандартную GeForce GTX 980, хотя на этот раз имеет черный внешний вид, похожий на Darth Vader.

Под капотом компания заявляет, что она ввела эпоксидную смолу в проводники и конденсаторы, чтобы уменьшить шум катушки или «скуление». Звуки катушек — это высокочастотный шум, который может исходить от некоторых плат и других компонентов при прохождении мощности через электромагнитные катушки. Мы не заметили проблему ни на одной из последних протестированных нами карт, но некоторые покупатели GeForce GTX 970 жаловались на то, что это проблема, поэтому приятно видеть, что на этот раз Nvidia принимает упреждающие меры.

Как и следовало ожидать, выбор портов на карте такой же, как у GeForce GTX 980 и других последних высокопроизводительных карт компании. Вы получаете один двухканальный порт DVI и три полноразмерных DisplayPorts, а порт HDMI 2.0, как ни странно, находится между DisplayPorts.

Как и GeForce GTX 980 и GTX 970, Titan X может управлять четырьмя дисплеями и тремя дисплеями 4K с частотой 60 Гц. Но вам определенно понадобится больше, чем один GeForce GTX Titan X, если вы планируете играть в сумасшедшие игры с тремя 4K-экранами в полном разрешении.

GeForce GTX Titan X определенно не подходит для большинства маленьких корпусов Mini-ITX. Несмотря на это, занимающий два слота и имеющий длину около 10, 5 дюймов, это далеко не самая большая карта, которую вы можете купить, и действительно впечатляюще компактная, учитывая, что это такое. Например, двухъядерный процессор AMD Radeon R9 295X2 имеет длину в фут, не считая внешнего радиатора.

В следующем разделе мы начнем наше обсуждение производительности, в котором мы проверили GeForce GTX Titan X на множестве конкурирующих карт, используя наш набор синтетических и игровых тестов. Конкурирующими картами были две другие карты Titan (GeForce GTX Titan Z и GTX Titan Black), а также GeForce GTX 980 от Nvidia. На стороне AMD мы сравнили GeForce GTX Titan X с Radeon R9 295X2 dual — Монстр GPU и ведущая одноядерная карта компании, когда мы писали это, Radeon R9 290X.

Примечания

  1. . 4PDA — Новости мира мобильных устройств. Дата обращения: 12 июля 2016.
  2. . GeForce. Дата обращения: 6 августа 2016.
  3. . 3DNews Daily Digital Digest. Дата обращения: 19 октября 2016.
  4. . 3DNews Daily Digital Digest. Дата обращения: 19 августа 2016.
  5. . iXBT. Дата обращения: 25 мая 2018.
  6. . 3DNews Daily Digital Digest. Дата обращения: 21 марта 2018.
  7. . NVIDIA. Дата обращения: 3 июля 2017.
  8. . iXBT. Дата обращения: 25 мая 2018.
  9. . GTX-Force.ru. Дата обращения: 23 мая 2018.
  10. . NVIDIA. Дата обращения: 27 июля 2018.
  11. . iXBT. Дата обращения: 9 декабря 2018.
  12. Видеоакселераторы NVIDIA TITAN X не относятся к игровой серии видеокарт и распространяются только через магазин NVIDIA, расположенный в США.
  13. . HardwareLuxx. Дата обращения: 7 сентября 2016.

Архитектура NVIDIA Volta

При создании архитектуры NVIDIA Volta в компании сделали ставку на сложные вычисления с плавающей запятой: FP32 и FP64. Такие расчёты необходимы при сложных научных вычислениях и обучении нейросетей. Видимо, в NVIDIA решили сделать жизнь геймеров проще, чтобы майнеры и разработчики ИИ не раскупали все игровые видеокарты оптовыми партиями.

Архитектура нового видеочипа GV100 очень заметно отличается от привычной архитектуры «Паскалей» и его предшественников. Видеоядро по-прежнему состоит из потоковых мультипроцессоров (Streaming Multiprocessors, SM), теперь они разделены на четыре вычислительных блока (вместо двух у Pascal). Внутри каждого блока находится 4 текстурных блока, по 64 ядра FP32 и INT32, 32 ядра FP64 и 8 тензорных ядер.

Тензорные ядра созданы для матричных вычислений со смешанной точностью, вида «D = A x B + C». Каждое такое ядро способно выполнить 64 таких операции за один такт. Именно такие расчёты требуются для обучения нейросетей. Поэтому NVIDIA Titan V и стоит рассматривать как видеокарту, которая нужная не для игр и рендеринга видео, а для гораздо более сложной и трудной работы.

Если говорить о приросте производительности (всё ещё научной, не игровой), то NVIDIA GV100 превзойдёт P100 на 80% в операциях мультиматричного перемножения и в 9 раз при таком же умножении со смешанной точностью. Большой скачок вперёд для NVIDIA.

  • 003

  • 004

В результате, в одном чипе NVIDIA GV100 находится 80 потоковых мультипроцессоров, что в итоге даёт видеокарте 5 120 потоковых процессоров, 320 текстурных блоков и 96 блоков растеризации. При этом в GV100 архитектура Volta не используется на полную мощность: в этом GPU не задействованы 4 потоковых мультипроцессора. Либо у NVIDIA есть проблемы с выходом полностью рабочих GPU, либо этот прирост производительности припасён на будущее. Что касается видеопамяти, то в Titan V используется памяти HBM2. Каждый стек памяти подключён к двум контроллерам, а всего в Titan V используется 8 контроллеров памяти, что даёт совокупную шину памяти в 4096 бит. Всего в GV100 используется 21 млрд транзисторов, а площадь кристалла составляет 815 мм^2. Даже по меркам современных видеокарт это очень большой GPU.

Сравнение характеристик

NVIDIA Titan X Pascal NVIDIA GeForce GTX TITAN X
Архитектура Pascal Maxwell 2.0
Кодовое имя GP102 GM200
Дата выпуска 2 August 2016 17 March 2015
Цена на дату первого выпуска $1,199 $999
Место в рейтинге 194 180
Тип Desktop Desktop
Цена сейчас $1,999.99
Соотношение цена/производительность (0-100) 7.38
Частота ядра в режиме Boost 1531 MHz 1075 MHz
Частота ядра 1417 MHz 1000 MHz
Производительность с плавающей точкой 10,974 gflops 6,691 gflops
Технологический процесс 16 nm 28 nm
Количество шейдерных процессоров 3584 3072
Скорость текстурирования 342.9 GTexel / s 192 billion / sec
Энергопотребление (TDP) 250 Watt 250 Watt
Количество транзисторов 11,800 million 8,000 million
Количество конвейеров CUDA 3072
Видеоразъёмы 1x DVI, 1x HDMI, 3x DisplayPort 1x DVI, 1x HDMI, 3x DisplayPort, Dual Link DVI-I, HDMI 2.0, 3x DisplayPort 1.2
Аудиовход для HDMI Internal
HDCP
Максимальное разрешение VGA 2048×1536
Поддержка нескольких мониторов
Интерфейс PCIe 3.0 x16 PCIe 3.0 x16
Длина 267 mm 10.5″ (26.7 cm)
Дополнительные разъемы питания 1x 6-pin + 1x 8-pin 6-pin + 8-pin
Шина PCI Express 3.0
Высота 4.376″ (11.1 cm)
Рекомендованный блок питания 600 Watt
Поддержка SLI 4x
DirectX 12.0 (12_1) 12.0 (12_1)
OpenGL 4.6 4.5
Vulkan
Максимальный размер памяти 12 GB 12 GB
Пропускная способность памяти 480.4 GB / s 336.5 GB / s
Ширина шины памяти 384 Bit 384 Bit
Частота памяти 10008 MHz 7.0 GB/s
Тип памяти GDDR5X GDDR5
Разделяемая память
CUDA
GameStream
GameWorks
GeForce ShadowPlay
GPU Boost

Страница 1: Тест и обзор: четыре NVIDIA GeForce GTX Titan X в 4-Way SLI

Видеокарта GeForce GTX Titan X от NVIDIA сегодня является флагманом по производительности с одним GPU. И производительность действительно оказывается на высоком уровне, что подтверждают результаты наших тестов. NVIDIA с видеокартой GeForce GTX Titan X представила очередной этап развития линейки Titan, на этот раз ориентированный на геймеров. Перед нами видеокарта на архитектуре «Maxwell» 2-го поколения, кроме улучшенного соотношения производительности на ватт в ней произошли и другие изменения. Мы не будем подробно здесь описывать, рекомендуем обратиться к нашему тесту GeForce GTX Titan X. Новая статья посвящена тестам четырёх видеокарт в 4-Way SLI. Потенциал кажется значительным, но получим ли мы его на практике? Какие ограничения технология multi-GPU накладывает в случае использования четырёх видеокарт? На все эти вопросы мы ответим в нашем обзоре.

Данная статья была подготовлена Шоном Бейкером в лаборатории Hardwareluxx на Тайване, поэтому результаты не следует напрямую сравнивать с другими обзорами видеокарт. Их следует сравнивать только в рамках данной статьи. Мы использовали четыре видеокарты GeForce GTX Titan X от ASUS.

Тест четырёх GeForce GTX Titan X

Четыре видеокарты GeForce GTX Titan X впечатляют не только на фотографиях. Числа говорят сами за себя. 4x 3.072 = 12.288 потоковых процессоров, 4x 192 = 768 текстурных блоков, 4x 96 = 384 конвейера растровых операций, а также 4x 12 = 48 Гбайт видеопамяти. В конфигурации 4-Way SLI используется 32 млрд. транзисторов, которые обещают высокий уровень производительности.

NVIDIA GeForce GTX Titan X в сравнении
Модель GeForce GTX Titan X GeForce GTX Titan GeForce GTX 980 Radeon R9 290X
Розничная цена 1.075 евро от 52,1 тыс. рублей от 25,9 тыс. рублей от 17,6 тыс. рублей
Сайт производителя NVIDIA NVIDIA NVIDIA AMD
Техническая информация
GPU GM200 (GM200-400-A1) GK110 (GK110-400-A1) Maxwell (GM204) Hawaii
Техпроцесс 28 нм 28 нм 28 нм 28 нм
Число транзисторов 8 млрд. 7,1 млрд. 5,2 млрд. 6,2 млрд.
Тактовая частота GPU (базовая) 1.000 МГц 837 МГц 1.126 МГц
Тактовая частота GPU (Boost) 1.075 МГц 876 МГц 1.216 МГц 1.000 МГц
Частота памяти 1.750 МГц 1.500 МГц 1.750 МГц 1.250 МГц
Тип памяти GDDR5 GDDR5 GDDR5 GDDR5
Объём памяти 12 Гбайт 6 Гбайт 4 Гбайт 4 Гбайт
Ширина шины памяти 384 бит 384 бит 256 бит 512 бит
Пропускная способность памяти 336,6 Гбайт/с 288,4 Гбайт/с 224,0 Гбайт/с 320,0 Гбайт/с
Потоковые процессоры 3.072 2.688 2.048 2.816
Текстурные блоки 192 224 128 176
Конвейеры растровых операций (ROP) 96 48 64 64
TDP 250 Вт 250 Вт 165 Вт > 250 Вт
SLI/CrossFire SLI SLI SLI CrossFire

В конфигурации SLI многие параметры видеокарт всё же не следует складывать. В режиме Alternate Frame Rendering (AFR) каждая видеокарта выводит полный кадр. Поэтому каждой требуется обладать полным массивом данных. Общие ресурсы в данном контексте ещё не реализованы. Подобные конфигурации multi-GPU пока остаются серьёзной «головной болью» для AMD и NVIDIA, поскольку им приходится решать множество проблем. С появлением DirectX 12 и других графических API разработчики GPU получат в помощь новые решения. Например, у Mantle видеокарты могут использовать общую память. Такой подход позволяет опираться на рендеринг Split Frame Rendering (SFR). В случае SFR должны уменьшиться задержки ввода, да и микро-подёргивания будут уже не так заметны.

Но вернёмся к нашей тестовой конфигурации на четырёх GeForce GTX Titan X. Технически вам потребуется материнская плата с достаточным количеством слотов PCI Express. При этом потребуется и достаточно число мостиков SLI в виде 3-Way или 4-Way SLI. Нужен и мощный процессор, который смог бы обеспечивать видеокарты достаточным количеством данных. Чтобы производительность не упиралась в CPU, разрешение должно быть достаточно высоким. Так что без монитора UltraHD тоже не обойтись.

Четыре GeForce GTX Titan X в тестах

Четыре GeForce GTX Titan X в тестах

Если присмотреться к конфигурации на четырёх видеокартах GeForce GTX Titan X, то будут видны и другие «узкие места». Первая, вторая и третья видеокарты получают очень мало воздуха – радиальный вентилятор накрывается видеокартой ниже. Вероятно, по этой причине NVIDIA отказалась от задней пластины у видеокарт, чтобы дать ещё пару миллиметров воздуха. В случае видеокарт GeForce GTX 980 NVIDIA для этой цели использовала съёмную заднюю пластину.

Vier GeForce GTX Titan X im GPU-Z-Screenshot

Скриншот GPU-Z показывает технические спецификации GeForce GTX Titan X. Можно видеть конфигурацию SLI на четырёх видеокартах.

<>Тест и обзор: четыре NVIDIA GeForce GTX Titan X в 4-Way SLIТестовая конфигурация, температура и энергопотребление
 

Сравнение бенчмарков

GPU 1: NVIDIA Titan X PascalGPU 2: NVIDIA GeForce GTX TITAN X

Geekbench — OpenCL
GPU 1
GPU 2
60601
39047
CompuBench 1.5 Desktop — Face Detection (mPixels/s)
GPU 1
GPU 2
165.792
157.231
CompuBench 1.5 Desktop — Ocean Surface Simulation (Frames/s)
GPU 1
GPU 2
2368.267
1722.566
CompuBench 1.5 Desktop — T-Rex (Frames/s)
GPU 1
GPU 2
17.829
12.245
CompuBench 1.5 Desktop — Video Composition (Frames/s)
GPU 1
GPU 2
21.354
38.225
CompuBench 1.5 Desktop — Bitcoin Mining (mHash/s)
GPU 1
GPU 2
992.132
518.554
GFXBench 4.0 — Car Chase Offscreen (Frames)
GPU 1
GPU 2
10841
9834
GFXBench 4.0 — Manhattan (Frames)
GPU 1
GPU 2
3696
3700
GFXBench 4.0 — T-Rex (Frames)
GPU 1
GPU 2
3333
3343
GFXBench 4.0 — Car Chase Offscreen (Fps)
GPU 1
GPU 2
10841
9834
GFXBench 4.0 — Manhattan (Fps)
GPU 1
GPU 2
3696
3700
GFXBench 4.0 — T-Rex (Fps)
GPU 1
GPU 2
3333
3343
3DMark Fire Strike — Graphics Score
GPU 1
GPU 2
9627
5355
Название NVIDIA Titan X Pascal NVIDIA GeForce GTX TITAN X
Geekbench — OpenCL 60601 39047
CompuBench 1.5 Desktop — Face Detection (mPixels/s) 165.792 157.231
CompuBench 1.5 Desktop — Ocean Surface Simulation (Frames/s) 2368.267 1722.566
CompuBench 1.5 Desktop — T-Rex (Frames/s) 17.829 12.245
CompuBench 1.5 Desktop — Video Composition (Frames/s) 21.354 38.225
CompuBench 1.5 Desktop — Bitcoin Mining (mHash/s) 992.132 518.554
GFXBench 4.0 — Car Chase Offscreen (Frames) 10841 9834
GFXBench 4.0 — Manhattan (Frames) 3696 3700
GFXBench 4.0 — T-Rex (Frames) 3333 3343
GFXBench 4.0 — Car Chase Offscreen (Fps) 10841 9834
GFXBench 4.0 — Manhattan (Fps) 3696 3700
GFXBench 4.0 — T-Rex (Fps) 3333 3343
3DMark Fire Strike — Graphics Score 9627 5355
PassMark — G3D Mark 13250
PassMark — G2D Mark 858

В заключение

Понимаю, что 99,9% читателей не купят TITAN X. Слишком дорого. И все же видеокарта представляет интерес, так как она уже сейчас отлично справляется с играми в разрешении Ultra HD. Повангую на тему, когда же 4K-гейминг станет по-настоящему доступным? Kepler-флагман GeForce GTX 780 Ti представили 7 ноября 2013 года. Год спустя вышла схожая в плане производительности GeForce GTX 980. А теперь такое же быстродействие демонстрирует GeForce GTX 1060. Если учесть, что подобная тенденция продолжится (хотя говорить об этом со 100-процентной уверенностью нельзя), то соответствовать производительности TITAN X будет уже GeForce GTX 1180 (название условное), а еще через поколение — GeForce GTX 1260. Это только предположение, однако, если все сложится, то действительно доступный гейминг в разрешении Ultra HD наступит через два поколения GeForce, то есть через три-четыре года. Хотя играть в 4K-разрешении с некоторыми оговорками можно уже сейчас.

TITAN X такой один. Когда у AMD появится конкурент с аналогичной производительностью — неизвестно. Но к карте стоимостью 1200 долларов есть претензии. На мой взгляд, за такой ценник NVIDIA спокойно могла бы разработать альтернативную систему охлаждения. Тихую и более эффективную. Или заказать у партнера. Я не верю, что лидеру рынка это не под силу. В итоге получили игровой ускоритель, который существует в одном-единственном исполнении. Шумный игровой ускоритель.

Второй момент — адаптер хорошо гонится и дает ощутимый прирост производительности. Более качественный кулер пригодился бы. С учетом того, что в продаже существуют кастомные версии GeForce GTX 1070 и GeForce GTX 1080, из которых уже выжали все соки на заводе, то нечто подобное могли бы сделать и с TITAN X. Ведь имеем дело с 1200-долларовой, самой крутой видеокартой современности.

NVIDIA TITAN X (Pascal) получает награду «Выбор редакции». За производительность.

Плюсы:

Минусы:

  • очень высокая производительность
  • отличный прирост от разгона
  • подходит для 4K-гейминга
  • очень-очень-очень высокая цена
  • потенциал видеокарты выше, производительность задушена производителем (возможно, специально)
  • шум
Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
RozBlog
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: