Обзор Nvidia Titan X: характеристики и тестирование. Обзор и тестирование NVIDIA GeForce GTX TITAN X: избиение младенцев Сравнение видеокарт от разных производителей

Весна - это время не только просыпающейся природы, но и время для традиционного анонса флагманской однокристальной видеокарты линейки Titan. И хотя первая демонстрация NVIDIA GeForce GTX Titan X прошла неожиданно, этот анонс был обставлен рядом слухов. Пару дней назад прошла официальная презентация этой видеокарты, в течение нескольких дней у нас была возможность ее детального изучения. Чем же она может похвастаться, посмотрим далее.

NVIDIA GeForce GTX Titan X стала четвертой в линейке и третьим «титаном» на однокристальной системе. Напомню, обособленно стоит GeForce GTX Titan Z с двумя GPU. Конечно, мы понимаем, что подобные системы нельзя назвать «народными», но даже при отсутствии 1000-1300 долларов, этот обзор может быть интересен для ознакомления с архитектурой Maxwell в ее максимальной на сегодня реализации. Как и ожидалось, в основе лежит ядро GM200, второе поколение этой архитектуры. Идет оно с движком PolyMorph Engine 3.0 с поддержкой функций feature level Direct3D 12 и аппаратного ускорения технологии глобального освещения. Может, это и будет тот прорыв в реализме и графике, которого так долго ждут в игровой индустрии?

GM200 содержит 8 миллиардов транзисторов, 256 ROP, 3072 CUDA и 384-битную шину памяти. Все это вооружение нацелено на поддержку 4K-разрешения и улучшение работы в 3D-режиме. Базовая частота ядра составляет: 1000 МГц, Boost Clock - 1076 МГц. Память функционирует на частоте 7012 МГц. На борту 12 Гбайт графической памяти, до выхода Titan X этот объем был недоступен для видеокарт, нацеленных на геймеров.

Видео обзор NVIDIA GeForce GTX Titan X

Внешний вид

NVIDIA GeForce GTX Titan X не стала революцией в дизайне топовых видеокарт, внешний вид изменился слабо. Используется система воздушного охлаждения, которая внешне повторяет то, что мы видели ранее.

Правки тут небольшие, ограничены они изменением окраски корпуса. Теперь он практически полностью окрашен в черный цвет.

Видеокарта лишена усиливающей платы на обратной стороне печатной плате. Напомню, в GeForce GTX 980 в референсном дизайне она была.

На заднюю панель выведены: три DisplayPort, HDMI и DVI. В режиме общего рабочего пространства могут работать три разъема, но подключить можно и все 5 разъемов одновременно. Такой же подход применен во всей линейке 900.

На боковой грани светящий логотип NVIDIA GeForce GTX. К сожалению, эффектные изображения светящегося вентилятора остались только фотографиями.

Охлаждение

Конструкция установленной системы охлаждения повторяет ту, которая использовалась в GeForce GTX 780 Ti.

Используется испарительная камера, показавшая с себя с сильной стороны при отводе большого объема тепла на радиатор.

Система разборная, так можно полностью убрать теплорассеиватель, пригодиться это может для установки системы водяного охлаждения.

Начинка

Перекочевала и система питания, несмотря на упоминания по изменению, при осмотре это все те же конденсаторы и дроссели. Даже ШИМ-контроллер нам знаком - NCP4206.

Но не буду драматизировать, у нас самих даже в длительных нагрузках не удалось найти шум и писк, о которых упоминали в комментариях к ряду видеокарт.

Сохранилась и планка по увеличению напряжения. В NVIDIA GeForce GTX Titan X его можно увеличить в пределах 25 Вт (TDP 250 Вт/275 Вт).

Распаяно 12 Гбайт чипов памяти SKhynix c частотой 1750 МГц, всего их тут 24.

Тестирование NVIDIA GeForce GTX Titan X

Использовался тестовый стенд.

Модель Данные
Корпус Aerocool Strike-X Air
Материнская плата Biostar Hi-Fi Z87X 3D
Процессор Intel Core i5-4670K Haswell
Кулер для процессора DeepCool Ice Blade Pro v2.0
Видеокарта Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra
Оперативная память Corsair CMX16GX3M2A1600C11 DDR3-1600 16 Гб Kit CL11
Жесткий диск ADATA XPG SX900 256 ГБ
Жесткий диск 2 WD Red WD20EFRX
Блок питания Aerocool Templarius 750W
Wi-Fi адаптер TP-LINK TL-WDN4800
Аудио Creative Sound Blaster EVO Wireless
Монитор iiyama ProLite E2773HDS
Монитор 2 Philips 242G5DJEB
Мышка ROCCAT Kone XTD
Клавиатура Razer BlackWidow Chroma
Стабилизатор Sven AVR PRO LCD 10000
Операционная система Microsoft Windows Ultimate 8 64-bit

Во всех таблицах ниже данные приводятся с использованием заводских настроек, фирменное ПО производителей не устанавливается. Частоты памяти и ядра также не затрагиваются с целью исключения влияния посторонних факторов.

1. Температурный режим работы видеокарты

  • NVIDIA GeForce GTX Titan X - 31/83
  • Inno3D iChill GeForce GTX 960 Ultra - 29/44
  • GeForce GTX 980 - 34/79
  • GeForce GTX 770 - 35/80
  • GeForce GTX 780 - 35/77
  • GeForce GTX 760 - 35/84

2. Шум

  • NVIDIA GeForce GTX Titan X - 36/42
  • GeForce GTX 980 - 34/79

3. Энергопотребление

  • NVIDIA GeForce GTX Titan X - 405
  • Inno3D iChill GeForce GTX 960 Ultra - 260
  • GeForce GTX 980 - 295
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 340
Оценку производительности по традиции начинаем с синтетических тестов.

  • NVIDIA GeForce GTX Titan X - 7133
  • Inno3D iChill GeForce GTX 960 Ultra - 3522
  • GeForce GTX 980 - 6050
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 6190
Остальной набор тестов:

Пришло время самых зрелищных тестов, замеры FPS в ресурсоёмких играх. Ряд таблиц мы сопровождаем наглядными видеороликами с записями во время игры. Данные снимаются с Full HD разрешением при Ultra настройках. Стоит учесть, что в ряде моментов в видеороликах реальные данные по FPS ниже, чем полученные во время тестовых прогонов, это связано с затратой ресурсов на видеозапись. Для этой видеокарты мы отдельно протестировали работу на разрешении 3840x2160 на Ultra настройках.

6. Crysis 3
Crysis 3 - 3840x2160 - Very High 4x AA - 22.

  • Inno3D iChill GeForce GTX 960 Ultra - 45
  • GeForce GTX 980 - 69
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 61
  • GeForce GTX 770 - 43
  • GeForce GTX 780 - 47

7. Battlefield 4
Battlefield 4 - 3840x2160 - Ultra - 39

  • NVIDIA GeForce GTX Titan X - 75
  • Inno3D iChill GeForce GTX 960 Ultra - 52
  • GeForce GTX 980 - 91
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 82

8. Hitman: Absolution
Очень требовательная игра, на движке Glacier 2. Аппетиту игры способны позавидовать другие новинки года.
Hitman: Absolution - 3840x2160 - High, 2x MSAA, 16x AF - 46

  • NVIDIA GeForce GTX Titan X - 95
  • Inno3D iChill GeForce GTX 960 Ultra - 44/li>
  • GeForce GTX 980 - 70
  • Inno3D iChill GeForce GTX 780Ti HerculeZ X3 Ultra - 62
  • GeForce GTX 770 - 43
  • GeForce GTX 780 - 55
  • GeForce GTX 760 - 41

9. Metro Last Light
Ещё одна требовательная к железу игра, использующая DirectX 11 и тесселяцию.
Metro Last Light - 3840x2160 - Very high - 35

10. Middle Earth: Shadow Mordor

  • Inno3D iChill GeForce GTX 960 Ultra - 51
  • GeForce GTX 980 - 111
Middle Earth: Shadow of Mordor - 3840x2160 - Ultra - 49

11. Tomb Raider

  • NVIDIA GeForce GTX Titan X - 156
  • Palit GeForce GTX 960 Super JetStream - 64
  • Inno3D iChill GeForce GTX 960 Ultra - 68
  • GeForce GTX 980 - 100
Tomb Raider - 3840x2160 - Ultra - 49

12. Watch Dogs Ultra 4x AA

  • NVIDIA GeForce GTX Titan X - 80
  • Inno3D iChill GeForce GTX 960 Ultra - 49
  • GeForce GTX 980 - 62
Watch Dogs - 3840x2160 - Ultra - 27

13. Total War: Rome II Extreme

  • NVIDIA GeForce GTX Titan X - 79
  • Inno3D iChill GeForce GTX 960 Ultra - 41
  • GeForce GTX 980 - 70
Total War: Rome II - 3840x2160 - Ultra - 30

14. GRID Autosport Ultra 4x MSAA

  • NVIDIA GeForce GTX Titan X - 154
  • Inno3D iChill GeForce GTX 960 Ultra - 80
  • GeForce GTX 980 - 128
GRID Autosport - 3840x2160 - Ultra - 69

15. World of Tanks

  • NVIDIA GeForce GTX Titan X - 124
  • Palit GeForce GTX 960 Super JetStream - 71
  • Inno3D iChill GeForce GTX 960 Ultra - 75
  • GeForce GTX 980 - 116

16. World of Warships

Это новый раздел наших тестов, пока количество протестированных видеокарт ограничено, до конца марта будет представлен комплексный материал. Игру World of Warships сложно оценивать в плане эффективности использования графики, но в целом эти данные могут быть полезны при сборке системы целенаправленно под игры Wargaming.

  • NVIDIA GeForce GTX Titan X - 72
  • Inno3D iChill GeForce GTX 780Ti - 72
  • Palit GeForce GTX 960 Super JetStream - 59
  • Radeon R9 280x - 70
  • Radeon R9 280x - 70
На текущий момент движок игры ограничивает максимальную отметку по FPS на отметке 72.

Разгон

По традиции мы не ограничиваемся тестом на штатных частотах. Для разгона используется программа MSI Afterburner последней на момент тестирования версии. Для NVIDIA GeForce GTX Titan X нам удалось достигнуть следующих результатов без повышения напряжения ядра:

Для сравнения увеличения быстродействия используется синтетический тест 3D Mark FireStrike:

Есть потенциал для дальнейшего разгона при максимальном подъеме напряжения. Частоту ядра можно поднять до 1202 МГц и 7806 МГц по памяти. Здесь максимальная планка температуры повышается до 88 градусов.

Итоги по NVIDIA GeForce GTX Titan X

NVIDIA GeForce GTX Titan X продемонстрировала рост быстродействия на фоне снижения энергопотребления. При текущем раскладе сил, это максимальная производительность на однокристальной системе. Адекватных ответов со стороны AMD Radeon до текущего момента не заявлено. В качестве альтернативы можно рассматривать сохраняющую актуальность GTX 780 Ti, GTX 980 в режиме SLI, Radeon R9 290X. Интересна она будет и для рендеринга видео.

NVIDIA GeForce GTX Titan X получает заслуженную награду "Золото..

Предыдущая версия элитной видеокарты NVIDIA GeForce GTX TITAN X 12 Гбайт была выпущена в марте 2015 года и основывалась на графическом процессоре GM200 архитектуры Maxwell 2.0. В то время новинка отличалась колоссальным для игровых видеокарт объёмом видеопамяти, очень высокой производительностью и стоимостью ($999). Тем не менее, залихватская удаль GeForce GTX TITAN X поугасла уже спустя три месяца, когда публике была представлена столь же быстрая в играх GeForce GTX 980 Ti по куда более приемлемой стоимости ($649).

Похоже, что NVIDIA решила повторить этот путь анонсов в линейке топовых графических решений, который можно выразить последовательностью «GeForce GTX 980 –> GeForce TITAN X –> GeForce GTX 980 Ti», только теперь видеокарты основаны на ядрах GP104/102 архитектуры Pascal и выпускаются по 16-нм техпроцессу. C первой видеокартой – NVIDIA GeForce GTX 1080 – мы уже познакомились , как и с её оригинальными версиями . Теперь пришло время изучить самую новую и феноменально производительную видеокарту NVIDIA TITAN X .

Новинка стала стоить на 200 долларов дороже своей предшественницы – $1200, и, разумеется, по-прежнему позиционируется, как профессиональная видеокарта для исследований и глубинного обучения. Но, как вы наверняка понимаете, нас в первую очередь интересует её производительность в игровых приложениях и графических бенчмарках, поскольку все геймеры с нетерпением ждут анонса GeForce GTX 1080 Ti, последние признаки которого уже лишили сна особо явных адептов компании. Тем не менее, сегодня мы проверим NVIDIA TITAN X и в отдельных вычислительных бенчмарках, чтобы убедиться в её состоятельности в качестве профессиональной видеокарты.

1. Обзор супервидеокарты NVIDIA TITAN X 12 Гбайт

технические характеристики видеокарты и рекомендованная стоимость

Технические характеристики и стоимость видеокарты NVIDIA TITAN X приведены в таблице в сравнении с эталонными NVIDIA GeForce GTX 1080 и старой версией GeForce GTX TITAN X.




упаковка и комплектация

Выпуск TITAN X компания NVIDIA оставила строго за собой, поэтому упаковка видеокарты стандартная: компактная коробка, открывающаяся вверх, и вставленная в её центр видеокарта в антистатическом пакете.



В комплекте поставки ничего нет, хотя один дополнительный отсек внутри есть. Напомним, что рекомендованная стоимость NVIDIA TITAN X составляет 1200 долларов США.

дизайн и особенности печатной платы

Дизайн новой NVIDIA TITAN X стал более дерзким или даже можно сказать агрессивным, нежели дизайн GeForce GTX TITAN X. Кожух системы охлаждения с лицевой стороны видеокарты наделили дополнительными гранями, бликующими под лучами света, а заднюю часть текстолита закрыли рифлёной крышкой, выполненной из металла.




Вкупе с хромированным ротором вентилятора и такой же надписью на лицевой стороне, выглядит видеокарта действительно стильно и привлекательно. Отметим, что на верхнем торце NVIDIA TITAN X оставлены светящиеся символы «GEFORCE GTX», хотя в самом названии видеокарты их уже нет.




Длина эталонной видеокарты составляет стандартные 268 мм, высота – 102 мм, а толщина – 37 мм.

Видеовыходы на дополнительно перфорированной треугольными отверстиями панели, следующие: DVI-D, три DisplayPort версии 1.4 и один HDMI версии 2.0b.




В этом плане у новинки никаких изменений в сравнении с GeForce GTX 1080 нет.

Для создания разнообразных SLI-конфигураций на видеокарте предусмотрены два разъёма. Поддерживаются 2-way, 3-way и 4-way SLI варианты объединения видеокарт с использованием как новых жёстких соединительных мостиков, так и старых гибких.




Если эталонная GeForce GTX 1080 имеет только один восьмиконтактный разъём для дополнительного питания, то TITAN X получила в дополнение ещё и шестиконтактный разъём, что не удивительно, ведь заявленный уровень энергопотребления видеокарты составляет 250 ватт, как и у предшествующей ей модели GeForce GTX TITAN X. Мощность рекомендованного блока питания для системы с одной такой видеокартой должна составлять не менее 600 ватт.

Эталонная печатная плата NVIDIA TITAN X намного сложнее чем плата GeForce GTX 1080 , что вполне логично, учитывая возросшие требования по питанию, увеличенный объём видеопамяти и более широкую шину обмена с ней.




Система питания графического процессора пятифазная с использованием силовых элементов Dr.MOS и тантал-полимерных конденсаторов. Ещё две фазы питания отведены на видеопамять.



За управление питанием графического процессора отвечает контроллер uP9511P производства uPI Semiconductor.



Обеспечение функций мониторинга осуществляет контроллер INA3221 производства Texas Instruments.



Выполненный по 16-нм нормам, кристалл графического процессора GP102 имеет площадь 471 мм2, выпущен на 21-й неделе 2016 года (конец мая) и относится к ревизии А1.


Не считая архитектурных улучшений линейки GPU Pascal, в сравнении с графическим процессором GM200 видеокарты NVIDIA GeForce GTX TITAN X в новом GP102 содержатся на 16,7% больше универсальных шейдерных процессоров, а их общее количество равно 3584. Преимущество по этому показателю над GP104 видеокарты GeForce GTX 1080 составляет впечатляющие 40%. Такой же расклад и по числу текстурных блоков, которых у нового TITAN X 224 штуки. Дополняют количественные показатели GP102 96 блоков растровых операций (ROPs).

Частоты графического процессора также выросли. Если у GeForce GTX TITAN X базовая частота GPU в 3D-режиме составляла 1000 МГц и могла форсироваться до 1076 МГц, то у новой TITAN X базовая частота равна 1418 МГц (+41,8%), а заявленная boost-частота – 1531 МГц. На деле, по данным мониторинга, частота графического процессора кратковременно возрастала до 1823 МГц, а в среднем составила 1823 МГц. Это очень серьёзный прирост в сравнении с предшественником. Добавим, что при переходе в 2D-режим частота графического процессора снижается до 139 МГц с одновременным снижением напряжения с 1,050 В до 0,781 В.

NVIDIA TITAN X оснащается 12 Гбайт памяти стандарта GDDR5X, набранными двенадцатью микросхемами производства компании Micron (маркировка 6KA77 D9TXS), распаянными только на лицевой стороне печатной платы.



В сравнении с предшествующей GeForce GTX TITAN X на GM200, частота памяти новой TITAN X на GP102 составляет 10008 МГц, то есть на 42,7% выше. Таким образом при не изменившейся ширине шины обмена с памятью, составляющей 384 бит, пропускная способность памяти TITAN X достигает внушительных 480,4 Гбайт/с, что лишь чуть меньше нынешнего рекордсмена в этой области – AMD Radeon R9 Fury X с её высокоскоростной HBM и 512 Гбайт/с. В 2D-режиме частота памяти снижается до 810 эффективных мегагерц.

Итог обзору аппаратной части новой видеокарты подведёт информация из утилиты GPU-Z.


Выкладываем мы и BIOS видеокарты , считанный и сохранённый с помощью этой же утилиты.

система охлаждения – эффективность и уровень шума

Система охлаждения NVIDIA TITAN X идентична кулеру NVIDIA GeForce GTX 1080 Founders Edition.



В её основе лежит никелированный алюминиевый радиатор с медной испарительной камерой в основании, который отвечает за охлаждение графического процессора.



По площади этот радиатор небольшой, а межрёберное расстояние не превышает двух миллиметров.



Таким образом не трудно предположить, что эффективность охлаждения графического процессора этим радиатором будет серьёзно зависима от скорости вращения вентилятора (что, собственно, и подтвердилось далее).

На охлаждение микросхем памяти и элементов силовых цепей отведена металлическая пластина с термопрокладками.



Для проверки температурного режима работы видеокарты в качестве нагрузки мы использовали девятнадцать циклов стресс-теста Fire Strike Ultra из пакета 3DMark.



Для мониторинга температур и всех прочих параметров применялась программа MSI Afterburner версии 4.3.0 Beta 14 и новее, а также и утилита GPU-Z версии 1.12.0. Тесты проводились в закрытом корпусе системного блока , конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 23,5~23,9 градусов Цельсия.

Прежде всего мы проверили эффективность охлаждения NVIDIA TITAN X и её температурный режим при полностью автоматической регулировке скорости вентилятора.



Автоматический режим (1500~3640 об/мин)


Как видим по графику мониторинга, температура графического процессора видеокарты NVIDIA TITAN X очень быстро добралась до отметки 88-89 градусов Цельсия, а затем, благодаря сравнительно резкому повышению скорости вентилятора с 1500 до 3500 об/мин, стабилизировалась на отметке 86 градусов Цельсия. Далее по ходу теста скорость вращения вентилятора ещё увеличилась до 3640 об/мин. Вряд ли кто из нас с вами ожидал от эталонной видеокарты с тепловым пакетом 250 ватт иных температурных показателей, которые практически не отличаются от GeForce GTX TITAN X.

При максимальной скорости вентилятора температура графического процессора видеокарты NVIDIA TIAN X снижается на 12-13 градусов Цельсия в сравнении с режимом автоматической регулировки.



Максимальная скорость (~4830 об/мин)


В обоих режимах работы вентилятора NVIDIA TITAN X является очень шумной видеокартой. К слову, NVIDIA не лишает владельцев этой модели видеокарты гарантии при замене эталонного кулера на альтернативные варианты.

оверклокерский потенциал

При проверке оверклокерского потенциала NVIDIA TITAN X мы увеличили предел по питанию на максимально возможные 120%, температурный предел повысили до 90 градусов Цельсия, а скорость вентилятора вручную зафиксировали на 88% мощности или 4260 об/мин. Спустя несколько часов тестов, удалось выяснить, что без потери стабильности и появления дефектов изображения базовую частоту графического процессора можно увеличить на 225 МГц (+15,9%), а эффективную частоту видеопамяти – на 1240 МГц (+12,4%).



В результате частоты разогнанной NVIDIA TITAN X в 3D-режиме составили 1643-1756/11248 МГц .


Ввиду значительного разброса частот GPU во время теста температурного режима разогнанной видеокарты, тест из пакета 3DMark вновь рапортовал о нестабильности TITAN X.



Несмотря на данный факт, все 19 циклов этого теста, а также все игры тестового набора были успешно пройдены, а по данным мониторинга частота ядра разогнанной видеокарты увеличивалась вплоть до 1987 МГц.



88% мощности (~4260 об/мин)


С учётом разгона эталонной NVIDIA TITAN X можно предположить, что оригинальные GeForce GTX 1080 Ti будут разгоняться ещё лучше. Впрочем, время покажет.

2. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

системная плата: ASUS X99-A II (Intel X99 Express, LGA2011-v3, BIOS 1201 от 11.10.2016);
центральный процессор: Intel Core i7-6900K (14 нм, Broadwell-E, R0, 3,2 ГГц, 1,1 В, 8 x 256 Kбайт L2, 20 Мбайт L3);
система охлаждения CPU: Phanteks PH-TC14PЕ (2 Corsair AF140, ~900 об/мин);
термоинтерфейс: ARCTIC MX-4 (8,5 Вт/(м*К));
оперативная память: DDR4 4 x 4 Гбайт Corsair Vengeance LPX 2800 МГц (CMK16GX4M4A2800C16) (XMP 2800 МГц/16-18-18-36_2T/1,2 В или 3000 МГц/16-18-18-36_2T/1,35 В);
видеокарты:

NVIDIA TITAN X 12 Гбайт 1418-1531(1848)/10008 МГц и с разгоном до 1643-1756(1987)/11248 МГц;
Gigabyte GeForce GTX 1080 G1 Gaming 8 Гбайт 1607-1746(1898)/10008 МГц и с разгоном до 1791-1930(2050)/11312 МГц;
NVIDIA GeForce GTX 980 Ti 6 Гбайт 1000-1076(1189)/7012 МГц и с разгоном до 1250-1326(1437)/8112 МГц;

диск для системы и игр: Intel SSD 730 480GB (SATA-III, BIOS vL2010400);
диск для бенчмарков: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ);
архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
звуковая карта: Auzen X-Fi HomeTheater HD;
корпус: Thermaltake Core X71 (четыре be quiet! Silent Wings 2 (BL063) на 900 об/мин);
панель управления и мониторинга: Zalman ZM-MFC3;
блок питания: Corsair AX1500i Digital ATX (1500 Вт, 80 Plus Titanium), 140-мм вентилятор;
монитор: 27-дюймовый Samsung S27A850D (DVI, 2560 х 1440, 60 Гц).

Разумеется, прежних версий видеокарты TITAN X у нас остаться не могло, поэтому сравнивать новинку мы будем с двумя другими видеокартами, но вовсе не медленными. Первой из них будет оригинальная Gigabyte GeForce GTX 1080 G1 Gaming, которую мы протестировали на частотах эталонной NVIDIA GeForce GTX 1080, а также при разгоне до 1791-1930/11312 МГц.





Отметим, что пиковая частота графического процессора этой видеокарты при разгоне достигала отметки 2050 МГц.

Второй видеокартой тестирования является эталонная NVIDIA GeForce GTX 980 Ti, производительность которой мы протестировали как на номинальных частотах, так и при разгоне до 1250-1326(1437)/8112 МГц.





Поскольку при своём выходе GeForce GTX 980 Ti в играх продемонстрировала производительность, равную прежней GeForce GTX TITAN X , то такое сравнение вполне можно считать сравнением двух разных TITAN X. Добавим, что пределы по питанию и температуре на всех видеокартах были увеличены до максимально возможных, а в драйверах GeForce был выставлен приоритет максимальной производительности.

Для снижения зависимости производительности видеокарт от скорости платформы 14-нм восьмиядерный процессор при множителе 40, опорной частоте 100 МГц и активированной на третий уровень функции Load-Line Calibration был разогнан до 4,0 ГГц при повышении напряжения в BIOS материнской платы до 1,2095 В.



При этом 16 гигабайт оперативной памяти функционировали на частоте 3,2 ГГц с таймингами 16-16-16-28 CR1 при напряжении 1,35 В.

Тестирование, начатое 20 октября 2016 года, было проведено под управлением операционной системы Microsoft Windows 10 Professional со всеми обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 10.1.1.38 WHQL от 12.10.2016 ;
Intel Management Engine Interface (MEI) – 11.6.0.1025 WHQL от 14.10.2016 ;
драйверы видеокарт на графических процессорах NVIDIA – GeForce 375.57 WHQL от 20.10.2016 .

Поскольку видеокарты в сегодняшнем тестировании весьма производительные, то от тестов в разрешении 1920 х 1080 пикселей было решено отказаться и использовалось только разрешение 2560 х 1440 пикселей. Разрешения ещё выше, к сожалению, имеющийся монитор не поддерживает. Впрочем, учитывая результаты в последних новинках, сожалеть о недоступности более высоких разрешений не приходится. Для тестов использовались два режима качества графики: Quality + AF16x – качество текстур в драйверах по умолчанию с включением анизотропной фильтрации уровня 16х и Quality + AF16x + MSAA 4х(8х) с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. В отдельных играх, в силу специфики их игровых движков, были использованы иные алгоритмы сглаживания, что будет указано далее в методике и на диаграммах. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если же данные настройки в играх отсутствовали, то параметры изменялись в панели управления драйверов GeForce. Там же была принудительно отключена вертикальная синхронизация (V-Sync). Кроме указанного, никаких дополнительных изменений в настройки драйверов не вносилось.

Видеокарты были протестированы в одном графическом тесте, одном VR-тесте и пятнадцати играх, обновлённых до последних версий на дату начала подготовки материала. В сравнении с нашим предыдущим тестом видеокарт из тестового набора исключены старые и не ресурсоёмкие Thief и Sniper Elite III, но включены новые Total War: WARHAMMER и Gears of War 4 с поддержкой API DirectX 12 (теперь таких игр в наборе пять). Кроме того, в следующих статьях о видеокартах в списке появится ещё одна новая игра с поддержкой API DirectX 12. Так что, теперь список тестовых приложений выглядит следующим образом (игры и далее результаты тестирования в них расположены в порядке их официального выхода):

3DMark (DirectX 9/11) – версия 2.1.2973, тестирование в сценах Fire Strike, Fire Strike Extreme, Fire Strike Ultra и Time Spy (на диаграмме приведён графический балл);
SteamVR – тест на поддержку «виртуальной реальности», за результат принималось число протестированных кадров за время теста;
Crysis 3 (DirectX 11) – версия 1.3.0.0, все настройки качества графики на максимум, степень размытости средняя, блики включены, режимы с FXAA и с MSAA 4x, двойной последовательный проход заскриптованной сцены из начала миссии Swamp продолжительностью 105 секунд;
Metro: Last Light (DirectX 11) – версия 1.0.0.15, использовался встроенный в игру тест, настройки качества графики и тесселяция на уровне Very High, технология Advanced PhysX в двух режимах тестирования, тесты с SSAA и без сглаживания, двойной последовательный прогон сцены D6;
Battlefield 4 (DirectX 11) – версия 1.2.0.1, все настройки качества графики на Ultra, двойной последовательный прогон заскриптованной сцены из начала миссии TASHGAR продолжительностью 110 секунд;
Grand Theft Auto V (DirectX 11) – build 877, настройки качества на уровне Very High, игнорирование предложенных ограничений включено, V-Synс отключена, FXAA активировано, NVIDIA TXAA выключено, MSAA для отражений выключено, мягкие тени NVIDIA;
DiRT Rally (DirectX 11) – версия 1.22, использовался встроенный в игру тест на трассе Okutama, настройки качества графики на максимальный уровень по всем пунктам, Advanced Blending – On; тесты с MSAA 8x и без сглаживания;
Batman: Arkham Knight (DirectX 11) – версия 1.6.2.0, настройки качества на уровне High, Texture Resolutioin normal, Anti-Аliasing on, V-Synс отключена, тесты в двух режимах – с активацией двух последних опций NVIDIA GameWorks и без них, двойной последовательный прогон встроенного в игру теста;
(DirectX 11) – версия 4.3, настройки качества текстур на уровне Very High, Texture Filtering – Anisotropic 16X и прочие максимальные настройки качества, тесты с MSAA 4x и без сглаживания, двойной последовательный прогон встроенного в игру теста.
Rise of the Tomb Raider (DirectX 12) – версия 1.0 build 753.2_64, все параметры на уровень Very High, Dynamic Foliage – High, Ambient Occlusion – HBAO+, тесселяция и прочие методики улучшения качества активированы, по два цикла теста встроенного бенчмарка (сцена Geothermal Valley) без сглаживания и с активацией SSAA 4.0;
Far Cry Primal (DirectX 11) – версия 1.3.3, максимальный уровень качества, текстуры высокого разрешения, объёмный туман и тени на максимум, встроенный тест производительности без сглаживания и с активацией SMAA;
Tom Clancy’s The Division (DirectX 11) – версия 1.4, максимальный уровень качества, все параметры улучшения картинки активированы, Temporal AA – Supersampling, режимы тестирования без сглаживания и с активацией SMAA 1X Ultra, встроенный тест производительности, но фиксация результатов FRAPS;
Hitman (DirectX 12) – версия 1.5.3, встроенный тест при настройках качества графики на уровне «Ультра», SSAO включено, качество теней «Ультра», защита памяти отключена;
Deus Ex: Mankind Divided (DirectX 12) – версия 1.10 build 592.1, все настройки качества вручную выставлены на максимальный уровень, тесселяция и глубина резкости активированы, не менее двух последовательных прогонов встроенного в игру бенчмарка;
Total War: WARHAMMER (DirectX 12) – версия 1.4.0 build 11973.949822, все настройки качества графики на максимальный уровень, отражения включены, неограниченная видеопамять и SSAO активированы, двойной последовательный прогон встроенного в игру бенчмарка;
Gears of War 4 (DirectX 12) – версия 9.3.2.2, настройки качества на уровне Ultra, V-Synс отключён, все эффекты активированы, вместо не поддерживаемого игрой сглаживания использовалось масштабирование разрешения на 150% (до 3840 х 2160), двойной последовательный прогон встроенного в игру бенчмарка.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё как минимум один раз, чтобы получить достоверный результат.

3. Результаты тестов производительности

На диаграммах результаты тестирования видеокарт без разгона выделены зелёной заливкой, а при разгоне – тёмно-бирюзовым цветом. Поскольку все результаты на диаграммах имеют общую закономерность, то каждую из них отдельно мы комментировать не будем, а анализ проведём по сводным диаграммам в следующем разделе статьи.

3DMark




SteamVR




Crysis 3




Metro: Last Light







Battlefield 4




Grand Theft Auto V




DiRT Rally




Batman: Arkham Knight




Tom Clancy"s Rainbow Six: Siege




Rise of the Tomb Raider




Far Cry Primal




Tom Clancy’s The Division




Hitman




Deus Ex: Mankind Divided




Total War: WARHAMMER

Так как Total War: WARHAMMER мы тестируем впервые, то приведём настройки, при которых данная игра будет тестироваться сегодня и в последующих наших статьях про видеокарты.



И далее результаты.




Gears of War 4

Также приведём и настройки новой игры Gears of War 4, впервые включённой в тестовый набор.








Результаты получились следующие.



Дополним построенные диаграммы итоговой таблицей с результатами тестов с выведенными средним и минимальным значением числа кадров в секунду по каждой видеокарте.



На очереди – сводные диаграммы и анализ результатов.

4. Сводные диаграммы и анализ результатов

На первой паре сводных диаграмм мы предлагаем сравнить производительность новой NVIDIA TITAN X 12 Гбайт на номинальных частотах и эталонной NVIDIA GeForce GTX 980 Ti 6 Гбайт также на номинальных частотах. Результаты последней видеокарты приняты за начальную точку отсчёта, а средний FPS видеокарты NVIDIA TITAN X отложен в процентах от неё. Преимущество новой видеокарты, вне всяких сомнений, впечатляет.



В наших тестовых условиях и настройках NVIDIA TITAN X быстрее NVIDIA GeForce GTX 980 Ti, как минимум, на 48%, а максимальные значения её превосходства достигают ошеломляющих 85%! Учитывая, что GeForce GTX 980 Ti в играх была фактически равна прежнему GeForce TITAN X, то можно сказать, что NVIDIA TITAN X на столько же быстрее своего предшественника. Прогресс полноценного графического процессора Pascal невероятен, жаль, что пока всё это весьма дорого, но уже мерцающие на горизонте GeForce GTX 1080 Ti будут заметно доступнее (вопрос только в том, что именно в них урежут?). Итак, в среднем по всем играм в разрешении 2560 х 1440 пикселей NVIDIA TITAN X быстрее NVIDIA GeForce GTX 980 Ti на 64,7% в режимах без использования сглаживания и на 70,4% при активации различных алгоритмов сглаживания.

Теперь оценим на сколько NVIDIA TITAN X на номинальных частотах опережает Gigabyte GeForce GTX 1080 G1 Gaming с частотной формулой, приведённой под уровень эталонных версий GeForce GTX 1080.



И вновь очень приличный прирост производительности! Как минимум, новинка быстрее GeForce GTX 1080 на 19%, а в Rise of Tomb Raider её преимущество достигает внушительных 45,5%. В среднем по всем играм NVIDIA TITAN X быстрее на 27,0% в режимах без сглаживания и на 32,7% при его активации.

Теперь давайте помечтаем, что NVIDIA при выпуске GeForce GTX 1080 Ti не станет урезать топовый Pascal по числу блоков и количеству шейдерных процессоров, и одновременно её партнёры выпустят оригинальные версии с повышенными частотами. На сколько в таком случае ещё вырастет производительность флагмана? Ответ на следующей сводной диаграмме.



Разгон NVIDIA TITAN X на 15,9% по ядру и на 12,4% по видеопамяти ускоряет и без того умопомрачительно быструю видеокарту на 12,9% в режимах без сглаживания и на 13,4% при активации АА. Если вернуться к первой сводной диаграмме, то несложно предположить, что оригинальные GeForce GTX 1080 Ti могут оказаться вдвое быстрее эталонных GeForce GTX 980 Ti или GeForce GTX TITAN X. Конечно, такое сравнение не объективно, ведь все знают, что оригинальные GeForce GTX 980 Ti зачастую способны разгоняться до 1,45-1,50 ГГц по ядру, а значит преимущество потенциальных GeForce GTX 1080 Ti не будет столь высоким. Тем не менее, даже 60-70% прироста производительности к флагману предыдущего поколения не могут не впечатлять. Где у нас с вами подобный прирост в центральных процессорах или оперативной памяти? Нет там ничего подобного, даже в топовом сегменте. А у NVIDIA такие возможности уже есть!

5. Вычисления на GPU

Сначала производительность новой видеокарты NVIDIA TITAN X мы протестируем в тесте CompuBench CL версии 1.5.8. Первые два теста – это распознавание лиц, основанное на алгоритме Виолы–Джонса, и базирующийся на вычислении вектора движения TV-L1 Optical Flow.



И вновь производительность NVIDIA TITAN X впечатляет. В номинальном режиме работы новинка опережает эталонную GeForce GTX 980 Ti на 66,6% в тесте Face Detection и на 90,4% в бенчмарке TV-L1 Optical Flow. Преимущество над GeForce GTX 1080 также довольно заметное, а разгон нового «Титана» ускоряет эту видеокарту ещё на 8,1-12,1%. Впрочем, примерно такой же прирост производительности и у двух других видеокарт тестирования при повышении частот.

Далее у нас на очереди тест прорисовки движения волн водной поверхности по быстрому дискретному преобразованию Фурье – Ocean Surface Simulation, а также тест физической симуляции частиц Particle Simulation.



Отличительной особенностью этой пары тестов стала относительная близость результатов GeForce GTX 980 Ti и GeForce GTX 1080, похоже, что ядро Maxwell легко сдаваться не собирается. А вот перед новой TITAN X обе эти видеокарты пасуют, проигрывая от 42,6 до 54,4%.

Намного плотнее результаты в тесте Video Composition.



Разогнанная Gigabyte GeForce GTX 1080 G1 Gaming даже умудряется догнать номинальную NVIDIA TITAN X, хотя последняя демонстрирует двадцатипроцентное преимущество над GeForce GTX 980 Ti.

Зато в симуляции майнинга криптовалюты Bitcoin мы вновь видим колоссальное преимущество NVIDIA TITAN X.



Новинка опережает GeForce GTX 980 Ti почти вдвое и на 30,4% быстрее Gigabyte GeForce GTX 1080 G1 Gaming на частотах эталонной NVIDIA GeForce GTX 1080. Такими темпами прироста производительности у NVIDIA и до видеокарт на графических процессорах AMD останется совсем чуть-чуть.

Далее у нас на очереди GPGPU тест из утилиты AIDA64 Extreme версии 5.75.3981 Beta. Из полученных результатов мы построили диаграммы по операциям с плавающей запятой с одинарной и двойной точностью.



Если ранее NVIDIA GeForce GTX TITAN X опережала в этих тестах первую версию GeForce GTX TITAN на 62% , то новая TITAN X на ядре Pascal превосходит предшественницу сразу на 97,5%! За любыми другими результатами теста AIDA64 GPGPU вы можете обращаться в тему обсуждения статьи в нашей конференции.

В завершении протестируем наиболее сложную сцену последнего LuxMark 3.1 – Hotel Lobby.



Отметим, что старенькая GeForce GTX 980 Ti «не даёт спуску» Gigabyte GeForce GTX 1080 G1 Gaming в этом тесте, но TITAN X опережает её сразу на 58,5%. Феноменальная производительность! Всё же жаль, что NVIDIA пока задерживает выпуск GeForce GTX 1080 Ti, и особо жаль, что её в этом никто пока не подгоняет.

6. Энергопотребление

Измерение уровня энергопотребления проводилось с помощью блока питания Corsair AX1500i через интерфейс Corsair Link и одноимённую программу версии 4.3.0.154. Измерялось энергопотребление всей системы в целом без учёта монитора. Измерение было проведено в 2D-режиме при обычной работе в Microsoft Word или интернет-сёрфинге, а также в 3D-режиме. В последнем случае нагрузка создавалась с помощью четырёх последовательных циклов вступительной сцены уровня Swamp из игры Crysis 3 в разрешении 2560 х 1440 пикселей при максимальных настройках качества графики с использованием MSAA 4Х. Энергосберегающие технологии центрального процессора отключены.

Давайте сравним уровень энергопотребления систем с протестированными сегодня видеокартами на диаграмме.



Несмотря на колоссальный прирост производительности везде и всюду, компании NVIDIA удалось удержать тепловой пакет новой TITAN X с ядром Pascal в тех же пределах, что и у прежней версии TITAN X – 250 ватт, поэтому уровень энергопотребления систем с этими видеокартами отличается несущественно. Так, в номинальном режиме работы конфигурация с NVIDIA TITAN X потребляет на 41 ватт больше, чем с видеокартой NVIDIA GeForce GTX 980 Ti, а при разгоне обеих видеокарт эта разница сокращается до 23 ватт. Вместе с тем, отметим, что система с Gigabyte GeForce GTX 1080 G1 Gaming экономичнее обеих версий TITAN X, а на частотах эталонной GeForce GTX 1080 едва не укладывается в предел 400 ватт, и это с учётом того, что в конфигурации присутствует прилично разогнанный восьмиядерный процессор. Экономичнее новинка и в 2D-режиме.

Заключение

Поскольку на сегодняшний день видеокарты NVIDIA в лице GeForce GTX 1080 и GTX 1070 занимают единоличное лидерство по производительности в верхнем ценовом сегменте, то выпуск ещё более производительной TITAN X мы вполне можем считать самой что ни на есть демонстрацией своего технологического превосходства над единственным конкурентом. Причём, демонстрация эта в полной мере удалась, ведь, находясь в том же тепловом пакете, преимущество новинки над флагманской видеокартой NVIDIA предыдущего поколения в игровых тестах порой достигает 85%, а в среднем составляет около 70%! Не менее впечатляющим выглядит прирост производительности и в вычислениях, что, как мы знаем, первостепенно для видеокарт NVIDIA серии TITAN.

Разница в производительности с GeForce GTX 1080 немного скромнее и составляет 27-33%, зато прирост производительности от разгона у TITAN X выше (около 13% против 10% у GeForce GTX 1080), а значит при появлении GeForce GTX 1080 Ti на основе того же GP102 мы вправе рассчитывать на ещё более высокие частоты и, как следствие, прирост производительности. Отрицательным моментом в анонсе TITAN X является двухсотдолларовое повышение рекомендованной стоимости, однако, на наш взгляд, у потенциальных потребителей таких видеокарт 20-процентный рост стоимости не вызовет серьёзных проблем. Ну, а геймеры поскромнее с нетерпением ждут появления GeForce GTX 1080 Ti, как и её «красного» конкурента.

Кроме того, отметим, что, несмотря на ошеломляющую производительность в играх, сама NVIDIA позиционирует TITAN X, в первую очередь, как эффективный инструмент для обучения нейросетей и решения задач, связанных с алгоритмами Deep Learning (глубинное обучение). Эти алгоритмы сегодня активно используются в самых разных областях: распознавание речи, изображений, видео, составление гидрометеорологических прогнозов, постановка более точных медицинских диагнозов, составление высокоточных карт, робототехника, самоуправляемые автомобили и так далее. Поэтому можно сказать, что возможности новой видеокарты NVIDIA TITAN X безграничны и удовлетворят любых пользователей.

Благодарим компанию NVIDIA и лично Ирину Шеховцову
за предоставленную на тестирование видеокарту
.


В марте 2015 года публике была представлена новая флагманская видеокарта от NVIDIA. Игровая видеокарта Nvidia Titan X является одночиповой, а в основу ее архитектуры заложен алгоритм Pascal (для GPU GP102), запатентованный производителем. На момент презентации Geforce GTX Titan X по праву считался наиболее мощным игровым видеоадаптером.

Графический процессор. GPU имеет 3584 ядра CUDA с базовой частотой в 1417 МГц. При этом тактовая частота с ускорением будет на уровне 1531 МГц.

Память. Флагман был представлен с объемом в 12 Gb, однако позже была выпущена версия с уменьшенным объемом в 2 раза. Быстродействие памяти доходит до 10 Гбит/с. Полосу пропускания в шине памяти выполнили 384-битную, что дает возможность иметь пропускную способность памяти в 480 Гбит/с. Используются чипы памяти GDDR5X, так что даже с конфигурацией в 6 Gb производительность будет высокой.

Другие характеристики Titan X. Число ALU 3584, ROP равно 96, а количество блоков наложенных текстур – 192. Также у карты поддержка разрешений до 7680×4320, набор разъемов новых стандартов DP 1.4, HDMI 2.0b, DL-DVI, а также HDCP версии 2.2.

Видеокарта работает со слотом (шиной) PCIe 3.0. Для обеспечения полного питания необходимо иметь дополнительные разъемы 8-pin и 6-pin на блоке питания. Карта займет два слота на материнской плате (SLI возможен на 2, 3 и 4 карты).

Высота видеокарты — 4.376″, а длина — 10.5″. Рекомендуется использовать блоки питания с мощностью от 600 Вт.

Обзор видеокарты

Основной упор производителей был сделан на улучшение графики для VR, а также для полноценной поддержки DirectX 12. Производительность видеокарты в играх можно немного поднять, разогнав показатели карты GTX Titan X 12 Gb.


Технология Pascal нацелена на игры в виртуальном шлеме. При использовании сверхскоростной технологии FinFET достигается максимальное сглаживание при использовании шлема. Модель Geforce Titan X Pascal полноценно совместима с VRWorks, что дает эффект полного погружения с возможностью прочувствовать физику и тактильные ощущения от игры.

Вместо тепловых медных трубок здесь используется испарительная камера. Максимальная температура – 94 градуса (с сайта производителя), однако в тестах средний показатель температуры – 83-85 градусов. При подъеме до такой температуры турбина охладителя ускоряется. Если ускорения недостаточно, то снижается тактовая частота графического чипа. Шум от турбины довольно различим, так что если это для пользователя значимый показатель, то лучше использовать водное охлаждение. Решения для этой модели уже есть.

Улучшение производительности для майнинга

Компания сделала упор на игровую производительность. В сравнении с и видеокартой, Geforce GTX Titan X 12 Gb майнинг не улучшает, а расход при этом больше. Все видеокарты серии Titan отличаются своей производительностью в вычислениях с двойной точностью FP32 и INT8. Это позволяет считать серию карт ускорителями профессиональных классов. Однако модель с чипом GM200 таковой не является, так как множество тестов показывает снижение производительности в вычислении хешей и прочих операциях. Производительность для добычи криптовалют всего лишь 37.45 МХэш/с.

Не рекомендуем использовать модель Х для добычи криптографических валют. Даже настройка Nvidia Titan X для производительности не даст такого результата, как Radeon Vega (если брать из той же ценовой категории), не говоря уже про Tesla.

Новая карта от этого же производителя дает показатели больше в 2,5 раза. В разогнанном состоянии Titan V дала показатель в 82.07 МХэш/с.

Результаты тестов в играх

Если сравнивать видеокарту Titan X Pascal с другими, то она на 20-25% лучше, чем видеокарта того же производителя , а также почти в два раза преобладает по показателям перед конкурентом Radeon R9 FuryX, которая также является одночиповой.

Во всех играх в 4K и UltraHD наблюдаем плавную картинку. Также высоких результатов достигли в тестах при использовании SLI режима.

Сравнение видеокарт от разных производителей

Цена видеокарты Titan X 12 Gb начинается от 1200$ и зависит от производителя и объема памяти.

Предлагаем ознакомится с сравнительной характеристикой товаров от разных производителей (* – аналогично):

Продукт Palit GeForce GTX TITAN X MSI GeForce GTX TITAN X ASUS GeForce GTX TITAN X
Первичный список характеристик
Тип видеокарты игровая *
Наименование GPU NVIDIA GeForce GTX TITAN X *
Код от производителя NE5XTIX015KB-PG600F *
Кодовое имя GPU GM 200 *
Тех.процесс 28нм *
Поддерживается мониторов четыре *
Разрешение GM200 (максимальное) 5120 на 3200 *
Список технических характеристик
Частота GPU 1000Mhz *
Объем памяти 12288Mb *
Тип памяти GDDR5 *
Частота памяти 7000 Mhz 7010 Mhz 7010 Mhz
Разрядность шины памяти 384 bit *
Частота RAMDAC 400 Mhz *
Поддержка режима CrossFire /SLI возможна *
Поддержка Quad SLI возможна * *
Список характеристик по подключению
Разъемы поддержка HDC, HDMI, DisplayPort x3 *
Версия HDMI 2.0 *
Математический блок
Кол-во универсальных процессоров 3072 *
Версия шейдеров 5.0 *
Кол-во текстурных блоков 192 *
Кол-во блоков растеризации 96 *
Дополнительный характеристики
Размеры 267×112 мм 280×111 мм 267×111 мм
Количество занимаемых слотов 2 *
Цена 74300 р. 75000 р. 75400 р.

Исходя из сравнительной таблицы, можно заметить, что различные производители соблюдают стандартизацию. Отличие в характеристиках незначительно: разная частота видеопамяти и размеры адаптеров.

Сейчас в продаже нет этой модели ни от одного производителя. В январе 2018 года миру была представлена , которая в производительности в играх и в майнинге крипвалют выигрывает у аналогов в несколько раз.

Первым образцом архитектуры Pascal от NVIDIA, выпущенным на рынок, стал графический адаптер GeForce GTX 1080 на базе процессора GP104. Благодаря новому техпроцессу 16 нм FinFET, равно как и оптимизациям архитектуры и схемотехники чипа, GTX 1080 позволил достигнуть уровня быстродействия в играх, примерно на 30% превышающего достижения флагманской видеокарты NVIDIA предыдущего поколения — GeForce GTX TITAN X. В то же время разработчики GTX 1080 сумели сократить энергетический бюджет ускорителя на 70 Вт относительно TDP его предшественника — с 250 до 180 Вт. Между тем тепловой пакет 250 Вт является стандартной целью для топовых игровых видеокарт NVIDIA нескольких последних поколений, поэтому появление после GTX 1080 еще более производительного продукта, который займет эту нишу в линейке Pascal, оставалось лишь вопросом времени.

Начиная с архитектуры Kepler, NVIDIA использует следующую стратегию выпуска GPU различных категорий быстродействия. Сперва дебютирует чип второго эшелона: GK104 в семействе Kepler, GM204 — в Maxwell второй версии, и теперь — GP104 в Pascal. Впоследствии NVIDIA заполняет один-два эшелона ниже, и после существенного промежутка появляется графический процессор высшей категории, ложащийся в основу наиболее производительного ускорителя, который NVIDIA может произвести, сохраняя энергопотребление в рамках 250 Вт при текущем технологическом процессе.

Пиком развития архитектуры Pascal на данный момент является процессор GP100, отличительными свойствами которого стало беспрецедентное число шейдерных ALU (3840 ядер CUDA) и 16 Гбайт памяти типа HBM2, объединенные с GPU на кремниевой подложке. GP100 используется в составе ускорителя Tesla P100, применение которого ограничено сферой суперкомпьютеров в силу специального форм-фактора с шиной NVLINK и TDP в объеме 300 Вт. В конце года также ожидается выход Tesla P100 в стандартном формате платы расширения PCI Express.

Именно чип GP100, в мечтах энтузиастов индустрии, должен был в перспективе увенчать линейку игровых адаптеров GeForce 10, а предварительно NVIDIA могла бы выпустить новый TITAN — как раз с промежуточной остановкой на этой позиции предыдущие большие GPU прибыли в геймерские ПК (GK110 в составе TITAN и GM200 — в TITAN X).

Однако на этот раз, по всей видимости, оказались правы эксперты, предрекавшие окончательное разделение линейки GPU NVIDIA на две непересекающиеся группы — чипы игрового и просьюмерского (от слов producer и consumer) направления, с одной стороны, и чипы для вычислений — с другой. Дифференцирующим фактором в данном случае является скорость GPU в операциях над числами с плавающей точкой двойной точности (FP64). В линейке Kepler разработчики уже пожертвовали этой характеристикой для всех чипов (1/24 от FP32), помимо старшего — GK110/GK210 (1/3 от FP32), с целью снизить энергопотребление GPU. В следующем поколении эта тенденция усугубилась: все процессоры Maxwell работают с FP64 на скорости 1/32 от FP32.

Ситуация с Pascal показала, что экономия на производительности FP64 не осталась временной мерой, обусловленной задержкой на техпроцессе 28 нм. NVIDIA по-прежнему нуждается в GPU для серверов, суперкомпьютеров и рабочих станций, способном оперировать FP64 на высоком уровне быстродействия. Однако для игровых видеоадаптеров эта функциональность, раздувающая транзисторный бюджет и энергопотребление GPU, является лишь обузой.

Таким образом, вместо того, чтобы перенести GP100 (очевидно дорогой в производстве чип как из-за площади, так и из-за интегрированной памяти HBM2) в игровые видеокарты, NVIDIA выпустила дополнительный продукт — GP102, сфокусированный на операциях с FP32 — основном формате чисел, применяемом и рендеринге 3D-графики, и в ряде вычислительных задач. Единственная функциональная особенность GP102 — поддержка целочисленных операций формата int8. Это важный пункт для NVIDIA, поскольку int8 широко применяется в задачах машинного обучения, которые компания сделала для себя одним из приоритетных направлений (конкретнее, один из классов таких задач — глубинное обучение). В скором будущем мы планируем выпустить отдельную статью, посвященную этой теме.

Новый TITAN X, ставший первым устройством на базе процессора GP102, позиционируется в первую очередь именно как ускоритель профессионального класса, который предназначен для исследований и коммерческих приложений, связанных с глубинным обучением. Это подтверждает и отсутствие бренда GeForce в названии карты. Однако широкие игровые возможности новинки также не подлежат сомнению. Все «Титаны», выпущенные ранее, помимо их вычислительных функций, рассматривались как игровые видеокарты премиум-класса, способные обеспечить качество графики и быстродействие, недоступные современным им моделям в основной линейке GeForce.

NVIDIA GP102

Данный GPU задуман как альтернатива суперкомпьютерному GP100, не уступающая последнему в функциях рендеринга 3D-графики и расчетах FP32. Вместе с тем создатели GP102 сократили все компоненты, не соответствующие назначению продукта.

К примеру, отдельно взятый SM (Streaming Multiprocessor — блок, объединяющей ядра CUDA вместе с блоками наложения текстур, планировщиками, диспетчерами и сегментами локальной памяти) в GP100 содержит 64 ядра CUDA для операций FP32, в то время как SM в GP102 обладает в этом отношении конфигурацией, унаследованной от Maxwell: 128 ядер CUDA. Более дробное распределение ядер CUDA в GP100 позволяет процессору одновременно исполнять больше потоков инструкций (и также групп потоков — warps — и блоков warp’ов), а общий объем таких типов хранилища внутри SM, как разделяемая память (shared memory) и регистровый файл, в пересчете на весь GPU увеличился по сравнению с архитектурой Maxwell.

Блок-схема NVIDIA GP102

Далее, в GP100 на каждые 64 ядра CUDA для операций FP32 приходится по 32 ядра для FP64, в то время как SM в GP102 обладает в этом отношении конфигурацией, унаследованной от Maxwell: 128 ядер CUDA для FP32 и 4 для FP64. Отсюда урезанная производительность GP102 в работе с операциями двойной точности.

Наконец, GP100 несет более крупный кеш второго уровня: 4096 Кбайт против 3072 Кбайт в GP102. И разумеется, в GP102 отсутствует контроллер шины NVLINK, а место контроллеров памяти HBM2 (с общей разрядностью шины в 4096 бит) занимают контроллеры GDDR5X SDRAM. 12 таких 32-битных контроллеров обеспечивают общую 384-битную шину доступа к памяти.

В остальных интересующих нас аспектах чипы GP100 и GP102 идентичны. Оба кристалла содержат 3840 FP32-совместимых ядер CUDA и 240 блоков наложения текстур, а также 96 ROP. Таким образом, с общей точки зрения структура вычислительных блоков GP102 повторяет таковую у чипа GP104, с поправкой на количественные изменения. Хотя нам все еще неизвестны некоторые параметры (объемы кеша L1, shared memory и регистрового файла), они, вероятно, одинаковы в этих двух GPU.

Кристалл GP102, произведенный по техпроцессу 16 нм FinFET на мощностях TSMC, содержит 12 млрд транзисторов на площади 471 мм 2 . Для сравнения: характеристики GP100 — 15,3 млрд транзисторов и 610 мм 2 . Это весьма существенная разница. Кроме того, если TSMC не увеличила размер фотомаски для техпроцесса 16 нм по сравнению с 28 нм, то GP100 его практически исчерпывает, в то время как облегченная архитектура GP102 позволит NVIDIA в будущем создать более крупное ядро для широкого потребительского рынка, пользуясь той же производственной линией (что, однако, вряд ли случится, если разработчики не пересмотрят свои стандарты в отношении TDP топовых моделей).

По поводу отличий архитектуры Pascal от Maxwell рекомендуем обратиться к нашему обзору GeForce GTX 1080 . В этой итерации разработчики развили достоинства предыдущего поколения и компенсировали присущие ему недостатки.

Кратко отметим следующие пункты:

  • улучшенная компрессия цвета с соотношениями вплоть до 8:1;
  • функция Simultaneous Multi-Projection геометрического движка PolyMorph Engine, позволяющая за один проход создавать вплоть до 16 проекций геометрии сцены (для VR и систем с несколькими дисплеями в конфигурации NVIDIA Surround);
  • возможность прерывания (preemption) в процессе исполнения draw call (при рендеринге) и потока команд (при вычислениях), которая вместе с динамическим распределением вычислительных ресурсов GPU обеспечивает полноценную поддержку асинхронных вычислений (Async Compute) — дополнительного источника быстродействия в играх под API DirectX 12 и сниженной латентности в VR;
  • контроллер дисплея, совместимый с интерфейсами DisplayPort 1.3/1.4 и HDMI 2.b. Поддержка высокого динамического диапазона (HDR);
  • шина SLI с повышенной пропускной способностью.

Технические характеристики, цена

В TITAN X не используется полностью функциональная версия графического процессора GP102: из 30 SM здесь отключены два. Таким образом, по числу ядер CUDA и текстурных блоков «Титан» совпадает с Tesla P100, где чип GP100 также частично «порезан» (3584 ядра CUDA и 224 текстурных блока).

Графический процессор новинки работает на более высоких частотах (1417/1531 МГц), чем в Tesla P100 (вплоть до 1328/1480 МГц в суперкомпьютерной версии и вплоть до 1300 МГц в форм-факторе платы PCI-Express). И все же частоты «Титана» довольно консервативны по сравнению с характеристиками GeForce GTX 1080 (1607/1733 МГц). Как мы увидим в экспериментах с разгоном, ограничивающим фактором стало энергопотребление устройства, которое NVIDIA установила на привычном уровне 250 Вт.

TITAN X оснащен 12 Гбайт памяти GDDR5X SDRAM с пропускной способность 10 Гбит/с на контакт. 384-битная шина обеспечивает передачу данных на скорости 480 Гбайт/с: по этому показателю TITAN X лишь ненамного уступает действующему рекордсмену — Radeon R9 Fury X, как и прочим продуктам AMD на базе GPU Fiji (512 Гбайт/с).

Производитель NVIDIA
Модель GeForce GTX TITAN GeForce GTX TITAN Black GeForce GTX TITAN Z GeForce GTX TITAN X GeForce GTX 1080 TITAN X
Графический процессор
Название GK110 GK110 2 × GK110 GM200 GP104 GP102
Микроархитектура Kepler Kepler Kepler Maxwell Pascal Pascal
Техпроцесс, нм 28 нм 28 нм 28 нм 28 нм 16 нм FinFET 16 нм FinFET
Число транзисторов, млн 7 080 7 080 2 × 7080 8 000 7 200 12 000
Тактовая частота, МГц: Base Clock / Boost Clock 837/876 889/980 705/876 1 000 / 1 089 1 607 / 1 733 1 417 / 1531
Число шейдерных ALU 2 688 2 880 2 × 2880 3 072 2 560 3 584
Число блоков наложения текстур 224 240 2 × 240 192 160 224
Число ROP 48 48 2 × 48 96 64 96
Оперативная память
Разрядность шины, бит 384 384 2 × 384 384 256 384
Тип микросхем GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Тактовая частота, МГц (пропускная способность на контакт, Мбит/с) 1 502 (6 008) 1 750 (7 000) 1 750 (7 000) 1 753 (7 012) 1 250 (10 000) 1 250 (10 000)
Объем, Мбайт 6 144 6 144 2 × 6144 12 288 8 192 12 288
Шина ввода/вывода PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Производительность
Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты) 4 709 5 645 10 092 6 691 8 873 10 974
Производительность FP32/FP64 1/3 1/3 1/3 1/32 1/32 1/32
Пропускная способность оперативной памяти, Гбайт/с 288 336 2 × 336 336 320 480
Вывод изображения
Интерфейсы вывода изображения DL DVI-I, DisplayPort 1.2, HDMI 1.4a DL DVI-D, DL DVI-I, DisplayPort 1.2, HDMI 1.4a DL DVI-I, DisplayPort 1.2, HDMI 1.4a DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, Вт 250 250 375 250 180 250
Рекомендованная розничная цена на момент выхода (США, без налога), $ 999 999 2 999 999 599/699 1 200
Рекомендованная розничная цена на момент выхода (Россия), руб. 34 990 35 990 114 990 74 900 — / 54 990

Что касается теоретических показателей быстродействия, то TITAN X стал первой однопроцессорной графической картой, превысившей отметку в 10 TFLOPS по производительности FP32. Из предыдущих продуктов NVIDIA на это был способен только TITAN Z, построенный на паре чипов GK110. С другой стороны, в отличие от Tesla P100 (и аналогично GeForce GTX 1060/1070/1080), TITAN X характеризуется весьма скромным быстродействием в расчетах двойной (1/32 от FP32) и половинной точности (1/64 от FP32), однако способен выполнять операции с числами int8 на скорости в 4 раза выше, чем с FP32. Другие GPU семейства Pascal — GP104 (GeForce GTX 1070 /1080, Tesla P4) и GP106 (GTX 1060) и GP100 (Tesla P100) также поддерживают int8 с соотношением быстродействия 4:1 относительно FP32, однако нам на данный момент неизвестно, ограничена ли эта функциональность в игровых видеокартах GeForce.

TITAN X — весьма и весьма дорогое приобретение, на которое решатся только те, кто действительно желает обладать столь совершенной видеокартой. NVIDIA увеличила цену на $200 по сравнению с предыдущими однопроцессорными моделями под этой маркой — до $1 200. На этот раз устройство не распространяется через партнерские компании и продается исключительно на веб-сайте NVIDIA в ряде избранных стран. Россия пока не входит в их число.

Конструкция

Корпус видеокарты выполнен в единой стилистике с продуктами под маркой Founders Edition линейки GeForce 10. Система охлаждения с радиальным вентилятором (турбинка) покрыта металлическим кожухом, а заднюю поверхность печатной платы защищает толстая пластина. Часть последней можно снять, дабы обеспечить беспрепятственный доступ воздуха к кулеру соседней видеокарты в режиме SLI. Забавно, что хотя TITAN X формально больше не принадлежит к семейству GeForce, именно эта надпись, подсвеченная зелеными светодиодами, по-прежнему красуется на боку видеокарты.

Конструкция кулера такая же, как у GTX 1070/1080: GPU отдает тепло радиатору с испарительной камерой, а микросхемы оперативной памяти и транзисторы преобразователя напряжения накрыты массивной алюминиевой рамой, несущей отдельный блок ребер небольшого размера.

Между прочим, как выяснил один из обладателей TITAN X, NVIDIA позволяет пользователям сменить систему охлаждения видеокарты на нечто более эффективное (например, СЖО) без потери гарантии.

Плата

Подобно референсным версиям GTX 1060/1070/1080, плата TITAN X имеет три разъема DisplayPort и по одному разъему DVI и HDMI.

Система питания построена по схеме 6+1 (количество фаз для GPU и чипов памяти). Используются два разъема дополнительного питания — шести- и восьмиконтактный, что вместе с силовыми линиями в разъеме PCI-Express обеспечивает видеокарте резерв мощности в 300 Вт.

Память типа GDDR5X SDRAM, как и на GeForce GTX 1080, набрана микросхемами Micron D9TXS со штатной эффективной частотой 10 ГГц.

Тестовый стенд, методика тестирования

Конфигурация тестовых стендов
CPU Intel Core i7-5960X @ 4 ГГц (100 × 40)
Материнская плата ASUS RAMPAGE V EXTREME
Оперативная память Corsair Vengeance LPX, 2133 МГц, 4 × 4 Гбайт
ПЗУ Intel SSD 520 240 Гбайт + Crucial M550 512 Гбайт
Блок питания Corsair AX1200i, 1200 Вт
Система охлаждения CPU Thermalright Archon
Корпус CoolerMaster Test Bench V1.0
Монитор NEC EA244UHD
Операционная система Windows 10 Pro x64
ПО для GPU AMD
Все Radeon Software Crimson Edition 16.8.2 Non-WHQL
ПО для GPU NVIDIA
Все GeForce Game Ready Driver 372.54 WHQL

CPU работает на постоянной частоте. В настройках драйвера NVIDIA в качестве процессора для вычисления PhysX выбран CPU. В настройках драйвера AMD настройка Tesselation переведена из состояния AMD Optimized в Use application settings.

Бенчмарки: игры
Игра (в порядке даты выхода) API Настройки Полноэкранное сглаживание
1920 × 1080 / 2560 × 1440 3840 × 2160
Crysis 3 + FRAPS DirectX 11 Макс. качество. Начало миссии Swamp MSAA 4x Выкл.
Battlefield 4 + FRAPS Макс. качество. Начало миссии Tashgar MSAA 4x + FXAA High
Metro: Last Light Redux, встроенный бенчмарк Макс. качество SSAA 4x
GTA V, встроенный бенчмарк Макс. качество MSAA 4x + FXAA
DiRT Rally Макс. качество MSAA 4x
Rise of the Tomb Raider, встроенный бенчмарк DirectX 12 Макс. качество, VXAO выкл. SSAA 4x
Tom Clancy"s The Division, встроенный бенчмарк DirectX 11 Макс. качество, HFTS выкл. SMAA 1x Ultra
HITMAN, встроенный бенчмарк DirectX 12 Макс. качество SSAA 4x
Ashes of the Singularity, встроенный бенчмарк DirectX 12 Макс. качество MSAA 4x + Temporal AA 4x
DOOM Vulkan Макс. качество. Миссия Foundry TSSAA 8TX
Total War: WARHAMMER, встроенный бенчмарк DirectX 12 Макс. качество MSAA 4x
Бенчмарки: декодирование видео, вычисления
Программа Настройки
DXVA Checker, Decode Benchmark, H.264 Файлы 1920 × 1080p (High Profile, L4.1), 3840 × 2160p (High Profile, L5.1). Microsoft H264 Video Decoder
DXVA Checker, Decode Benchmark, H.265 Файлы 1920 × 1080p (Main Profile, L4.0), 3840 × 2160p (Main Profile, L5.0). Microsoft H265 Video Decoder
LuxMark 3.1 x64 Сцена Hotel Lobby (Complex Benchmark)
Sony Vegas Pro 13 Бенчмарк Sony для Vegas Pro 11, продолжительность — 65 с, рендеринг в XDCAM EX, 1920 × 1080p 24 Гц
SiSoftware Sandra 2016 SP1, GPGPU Scientific Analysis Open CL, FP32/FP64
CompuBench CL Desktop Edition X64, Ocean Surface Simulation
CompuBench CL Desktop Edition X64, Particle Simulation— 64K

Участники тестирования

В тестировании производительности приняли участие следующие видеокарты:

  • NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт);

Производительность : 3DMark

Синтетические тесты в среднем демонстрируют преимущество TITAN X перед GeForce GTX 1080 в 25 %. По сравнению с предыдущим поколением марки TITAN, а также Radeon R9 Fury X новый флагман предлагает на 61—63 % более высокий результат и более чем вдвое выросшую производительность, по сравнению с первой версией TITAN на базе архитектуры Kepler. Довольно высокую позицию в сравнении с ускорителем NVIDIA удерживает Radeon R9 295X2 — новинка лишь на 18 % быстрее в 3DMark.

3DMark (Graphics Score)
Разрешение
Fire Strike 1920 × 1080 26 341 10 449 17 074 21 648 23 962 16 279
Fire Strike Extreme 2560 × 1440 13 025 4 766 7 945 10 207 10 527 7 745
Fire Strike Ultra 3840 × 2160 6 488 2 299 4 011 4 994 5 399 3 942
Time Spy 2560 × 1440 8 295 2 614 4 935 6 955 7 186 5 084
Макс. −60% −35% −16% −9% −38%
Среднее −64% −38% −20% −15% −39%
Мин. −68% −41% −23% −19% −41%



Производительность: игры (1920 × 1080 , 2560 × 1440)

В тестах при сравнительно низком разрешении для столь мощного GPU новый TITAN X на 15-20 % (от режима 1080p к 1440p соответственно) превосходит GeForce GTX 1080 по средним результатам. Еще более эффектно новый флагман выглядит в сравнении с лучшими ускорителями периода 28 нм: он на 47-56 % быстрее GeForce GTX TITAN X на базе GM200 и на 67-72 % опережает Radeon R9 Fury X.

Если взять самый первый TITAN поколения Kepler, то речь идет о более чем двукратном приросте быстродействия.

1920 × 1080
Полноэкранное сглаживание NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт) NVIDIA GeForce GTX TITAN (837/6008 МГц, 6 Гбайт) NVIDIA GeForce GTX TITAN X (1000/7012 МГц, 12 Гбайт) NVIDIA GeForce GTX 1080 (1607/10008 МГц, 8 Гбайт) AMD Radeon R9 295X2 (1018/5000 МГц, 8 Гбайт) AMD Radeon R9 Fury X (1050/1000 МГц, 4 Гбайт)
Ashes of the Singularity MSAA 4x 47 20 31 42 34 26
Battlefield 4 MSAA 4x + FXAA High 162 71 118 149 134 94
Crysis 3 MSAA 4x 99 45 65 79 90 60
DiRT Rally MSAA 4x 126 57 83 101 97 65
DOOM TSSAA 8TX 200 69 151 185 122 156
GTA V MSAA 4x + FXAA 85 44 68 84 76 52
HITMAN SSAA 4x 68 21 39 52 24 33
Metro: Last Light Redux SSAA 4x 124 47 73 92 94 70
Rise of the Tomb Raider SSAA 4x 70 28 47 62 55 41
Tom Clancy"s The Division SMAA 1x Ultra 87 35 59 80 57 58
Total War: WARHAMMER MSAA 4x 76 38 56 73 37 49
Макс. −48% −20% −0% −9% −22%
Среднее −58% −32% −13% −29% −40%
Мин. −69% −43% −26% −65% −51%
2560 × 1440
Полноэкранное сглаживание NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт) NVIDIA GeForce GTX TITAN (837/6008 МГц, 6 Гбайт) NVIDIA GeForce GTX TITAN X (1000/7012 МГц, 12 Гбайт) NVIDIA GeForce GTX 1080 (1607/10008 МГц, 8 Гбайт) AMD Radeon R9 295X2 (1018/5000 МГц, 8 Гбайт) AMD Radeon R9 Fury X (1050/1000 МГц, 4 Гбайт)
Ashes of the Singularity MSAA 4x 39 16 24 33 27 21
Battlefield 4 MSAA 4x + FXAA High 109 47 75 98 95 65
Crysis 3 MSAA 4x 63 27 40 53 59 39
DiRT Rally MSAA 4x 93 40 60 74 71 48
DOOM TSSAA 8TX 166 45 95 126 82 107
GTA V SMAA 67 31 48 63 61 39
HITMAN MSAA 4x + FXAA 43 13 24 33 12 17
Metro: Last Light Redux SSAA 4x 71 26 43 52 54 43
Rise of the Tomb Raider Не поддерживается 44 16 28 38 23 27
Tom Clancy"s The Division SSAA 4x 63 24 43 58 45 44
Total War: WARHAMMER SMAA 1x High 57 26 39 50 25 34
Макс. −53% −29% −6% −6% −30%
Среднее −61% −36% −16% −33% −42%
Мин. −73% −44% −27% −72% −60%

Прим.:




Производительность: игры (3840 × 2160)

При переходе от разрешения 1440p к 4К соотношение между видеокартами NVIDIA остается прежним. TITAN X на 20 % быстрее, чем GeForce GTX 1080 и на 56 % превосходит TITAN X на базе Maxwell.

Radeon R9 Fury X, что характерно для этой модели, более эффективно справляется с тестами в 4К, что в итоге сократило преимущество «Титана» до 56 %.

3840 × 2160
Полноэкранное сглаживание NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт) NVIDIA GeForce GTX TITAN (837/6008 МГц, 6 Гбайт) NVIDIA GeForce GTX TITAN X (1000/7012 МГц, 12 Гбайт) NVIDIA GeForce GTX 1080 (1607/10008 МГц, 8 Гбайт) AMD Radeon R9 295X2 (1018/5000 МГц, 8 Гбайт) AMD Radeon R9 Fury X (1050/1000 МГц, 4 Гбайт)
Ashes of the Singularity Выкл. 45 20 29 41 38 37
Battlefield 4 84 35 57 74 72 52
Crysis 3 42 18 28 36 40 29
DiRT Rally 65 26 41 50 48 33
DOOM 92 24 51 68 45 57
GTA V 55 25 39 51 49 34
HITMAN 67 21 38 53 24 33
Metro: Last Light Redux 64 23 38 47 47 38
Rise of the Tomb Raider 50 19 33 44 37 31
Tom Clancy"s The Division 38 15 25 33 26 28
Total War: WARHAMMER 43 20 30 38 20 32
Макс. −53% −29% −7% −5% −18%
Среднее −61% −36% −16% −29% −36%
Мин. −74% −45% −27% −64% −51%

Прим.: В Total War: WARHAMMER не поддерживается DirectX 12 для GeForce GTX TITAN.

Производительность: декодирование видео

В GP102 интегрирован такой же аппаратный кодек, как и в двух младших GPU семейства Pascal, поэтому TITAN X демонстрирует скорость декодирования стандартов H.264 и HEVC наравне с GeForce GTX 1080, с поправкой на сниженные тактовые частоты GPU. Производительность Pascal в этой задаче является непревзойденной как по сравнению с кодеками NVIDIA в чипах Maxwell, так и с таковыми в AMD Polaris.

Прим.: поскольку в пределах одной линейки GPU декодеры обычно не различаются, на диаграммах приведено по одному устройству из каждого семейства (или больше в том случае, если это правило нарушается).

Прим. 2: GeForce GTX TITAN X , как и другие устройства на базе GPU архитектуры Maxwell, за исключением GM204 (GeForce GTX 950/960), выполняет частично аппаратное декодирование H.265, подкрепленное ресурсами CPU.

Производительность: вычисления

Соотношение между различными архитектурами в задачах GPGPU зависит от специфики каждого приложения. TITAN X по большей части обеспечивает предсказуемый прирост быстродействия по сравнению с GeForce GTX 1080, однако есть исключительные случаи, когда задача упирается в частоту графического процессора (как тест физики частиц в CompuBench CL и рендеринг в Sony Vegas): здесь преимущество на стороне GTX 1080. Напротив, новый TITAN X взял реванш в той ситуации, где GeForce GTX 1080 уступает TITAN X на базе Maxwell и Radeon R9 Fury X (трассировка лучей в LuxMark).

В тесте SiSoftware Sandra, включающем перемножение матриц и быстрое преобразование Фурье, TITAN X не знает равных в режиме FP32. Что касается FP64, то просто за счет грубой силы (большого количества ядер CUDA и высоких тактовых частот) ускоритель достиг более высоких показателей, чем оригинальный TITAN поколения Kepler и Radeon R9 Fury X — видекарты, обладающие более выгодным соотношением скорости работы с FP32 и FP64. Это в конечном счете не позволяет совсем уж сбрасывать со счетов TITAN X как ускоритель задач с вычислениями двойной точности. Впрочем, для этой цели лучше всего подходит Radeon R9 295X2. Видеокарты AMD сохраняют сильные позиции и в некоторых других тестах: расчете водной поверхности в CompuBench CL и Sony Vegas.

Тактовые частоты, энергопотребление, температура, разгон

При игровой нагрузке графический процессор TITAN X периодически достигает столь же высоких тактовых частот, как GP104 в составе GTX 1080 (1848 против 1860 МГц), однако большую часть времени пребывает в существенно более низком диапазоне (1557-1671 МГц). При этом максимальное напряжение питания GPU составляет 1,062 В (1,05 В в GTX 1080).

Вентилятор СО вращается со скоростью вплоть до 2472 об/мин. Карта требует более сильного охлаждения, чем GTX 1080, а поскольку конструкция кулера осталась неизменной, он создает больше шума. Чтобы компенсировать этот фактор, для TITAN X установили на 3 °С более высокую целевую температуру GPU.

Хотя TITAN X на базе Pascal формально обладает одинаковым TDP c TITAN X предыдущего поколения, на практике система с новой видеокартой развивает существенно большую (на 49 Вт) мощность. Впрочем, здесь может играть роль повышенная нагрузка на CPU, обслуживающий более производительный графический процессор. В FurMark, напротив, все ускорители, обладающие TDP 250 Вт (а также 275-ваттный Fury X) находятся примерно на одном уровне.

Для разгона «Титана» мы воспользовались штатной возможностью увеличить лимит мощности видеокарты на 20 %, запустили турбину СО на полную скорость (4837 об/мин) и увеличили максимальное напряжение питания GPU до 1,093 В (такое же значение, как на GTX 1080). В результате нам удалось поднять базовую частоту GPU на 200 МГц — до 1617 МГц, а эффективную частоту памяти — до 11100 МГц.

Одно это уже совсем неплохо для столь крупного чипа, однако не меньшее значение имеет повышенный лимит мощности. Разогнанный GPU поддерживает частоты в диапазоне 1974-1987 МГц, достигая максимума в 2063 МГц, а это уже не менее чем просто потрясающее достижение. Для сравнения: пиковая частота графического процессора в нашем экземпляре GTX 1080 при разгоне составила 2126 МГц.

Система с разогнанным TITAN X развивает мощность на 46 Вт больше, чем при штатном режиме работы видеокарты. Раскрученный до максимальной скорости вентилятор сбил температуру GPU на 17-20 °C, что позволяет пользователям рассчитывать на столь же эффективный разгон при более низких оборотах, обеспечивающих относительно комфортный уровень шума.

Производительность: разгон

Оверклокинг TITAN X позволяет весьма существенно увеличить быстродействие — на 14% в 3DMark и на 18-23 % в игровых бенчмарках при разрешениях 1080p и 1440p. В играх при разрешении 4К бонус достигает 26 %.

Разница между разогнанным TITAN X и GeForce GTX 1080, работающим на референсных частотах, достигает шокирующих значений — 36, 47 и 50 % в трех использованных нами разрешениях. Разумеется, сам GTX 1080 также подлежит разгону, но, как мы помним из нашего обзора референсной видеокарты, это добавляет к результатам лишь 9, 13 и 12 %. Таким образом, если сравнивать разогнанный флагман линейки GeForce 10 и разогнанный TITAN X, то преимущество последнего составит 25, 30 и 34 %.

Используя наши старые данные о производительности GeForce GTX TITAN X на чипе GM200 в разгоне, произведем аналогичные расчеты для сравнения двух поколений «Титанов». Разогнанный TITAN X на Pascal опережает своего предшественника на 75, 93 и 97 %. Когда оба ускорителя разогнаны, новинка сохраняет отрыв в 74 и 70 % при разрешениях 1440p и 2160p. От тестирования в режиме 1080p мы (как помнят критиковавшие это решение читатели) отказались в обзоре GeForce GTX TITAN X.

3DMark (Graphics Score)
Разрешение NVIDIA GeForce GTX 1080 (1607/10008 МГц, 8 Гбайт) NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт)
Fire Strike 1920 × 1080 21 648 26 341 31 038
Fire Strike Extreme 2560 × 1440 10 207 13 025 15 191
Fire Strike Ultra 3840 × 2160 4 994 6 488 7 552
Time Spy 2560 × 1440 6 955 8 295 8 644
Макс. +30% +51%
Среднее +25% +42%
Мин. +19% 101 126 126
DOOM TSSAA 8TX 185 200 200
GTA V MSAA 4x + FXAA 84 85 96
HITMAN SSAA 4x 52 68 77
Metro: Last Light Redux SSAA 4x 92 124 140
Rise of the Tomb Raider SSAA 4x 62 70 94
Tom Clancy"s The Division SMAA 1x Ultra 80 87 117
Total War: WARHAMMER MSAA 4x 73 76 88
Макс. +35% +57%
Среднее +16% +36%
Мин. +0% +8%

TITAN X позиционируется в первую очередь как ускоритель задач GPGPU, среди которых приоритетное место занимает машинное обучение благодаря поддержке формата чисел int8 в GP102 при скорости исполнения 4:1 по сравнению с операциями FP32. В большинстве вычислительных задач, опирающихся на FP32, TITAN X также обладает лидирующим быстродействием по сравнению с любыми ранее выпущенными ускорителями игрового и просьюмерского класса.

Не стоит сбрасывать со счетов и функцию работы с операциями двойной точности. Хотя карты, построенные на таких GPU, как GK110/210 от NVIDIA, а также Tahiti и Hawaii от AMD обладают лучшим соотношением FP32 и FP64 по сравнению с TITAN X , но и в этой категории он достигает по меньшей мере конкурентоспособных результатов в силу прогрессивного техпроцесса, обеспечившего видеокарте высокие тактовые частоты и огромный массив ядер CUDA.

Для нашего сайта новый TITAN X интересен в первую очередь как игровая видеокарта. В этом качестве новинка производит двоякое впечатление. С одной стороны, преимущество в 15-20% перед GeForce GTX 1080 в игровых бенчмарках не оправдывает, с точки зрения покупателя, столь высокую цену модели ($1 200) и к тому же все еще не позволяет запускать многие из современных игр в разрешении 4К с максимальными настройками качества графики при комфортной частоте смены кадров (60 FPS).

С другой стороны, ограничение TDP в 250 Вт, установленное NVIDIA, явно не соответствует возможностям GPU. При разгоне штатными средствами TITAN X легко достигает частот свыше 2 ГГц, что в конечном счете обеспечивает на 34 % более высокую производительность, чем у (также разогнанного) GeForce GTX 1080 в режиме 4К. Фактически разгон делает TITAN X первой игровой видеокартой, безоговорочно подходящей для таких настроек.

2560 × 1440
Полноэкранное сглаживание NVIDIA GeForce GTX 1080 (1607/10008 МГц, 8 Гбайт) NVIDIA TITAN X (1417/10000 МГц, 12 Гбайт) NVIDIA TITAN X (1617/11110 МГц, 12 Гбайт)
Ashes of the Singularity MSAA 4x 33 39 48
Battlefield 4 MSAA 4x + FXAA High 98 109 146
Crysis 3 MSAA 4x 53 63 81
DiRT Rally MSAA 4x 74 93 93
DOOM TSSAA 8TX 126 166 183
GTA V SMAA 63 67 86
HITMAN MSAA 4x + FXAA 33 43 49
Metro: Last Light Redux SSAA 4x 52 71 82
Rise of the Tomb Raider Не поддерживается 38 44 59
Tom Clancy"s The Division SSAA 4x 58 63 86
Total War: WARHAMMER SMAA 1x High 50 57 74
Макс. +36% +58%
Среднее +20% +47%
Мин.
DOOM 68 92 104
GTA V 51 55 75
HITMAN 53 67 77
Metro: Last Light Redux 47 64 74
Rise of the Tomb Raider 44 50 69
Tom Clancy"s The Division 33 38 52
Total War: WARHAMMER 38 43 58
Макс. +37% +59%
Среднее

Предыдущее изображение Следующее изображение

Видеоускоритель GeForce GTX Titan X в настоящее время (апрель 2015 года) является самым технологически совершенным в мире. Он обладает беспрецедентной производительностью, не имеющей аналогов в мире. Видеокарта Titan X предназначена для профессиональных и опытных геймеров, а также для энтузиастов PC. Плата построена на базе новой архитектуры Maxwell от компании NVIDIA, которая характеризуется удвоенной, по сравнению с прошлым поколением GPU Kepler, производительностью и невероятной энергоэффективностью.

Видеокарта GeForce GTX Titan X оснащена графическим процессором GM200, в котором включены абсолютно все 3072 вычислительных ядра CUDA , что является максимальной величиной для модельного ряда GeForce GTX 900.

Инновационный графический процессор GM200 обладает рядом впечатляющих игровых технологий, которые как достались по наследству от предыдущих поколений ускорителей, так и были разработаны инженерами NVIDIA с нуля. Наряду с известными технологиями поддержки 3D дисплеев 3D Vision, адаптивной синхронизации G-Sync и алгоритмами сглаживания MSAA и TXAA, в видеокартах семейства GeForce GTX 900 появилась технология многокадрового сглаживания (MFAA), гарантирующая прирост производительности на 30%; метод сглаживания с использованием сверхвысокого разрешение DSR ; а также воксельная глобальная иллюминация (VXGI), которая ускоряет эффекты динамического освещения для обеспечения захватывающего игрового процесса кинематографического качества.

Данный ускоритель, как и прочие карты модельного ряда, получил обновлённую технологию автоматического разгона NVIDIA GPU Boost 2.0, которая отслеживает работу видеокарты, ещё эффективней управляя температурой GPU , повышением тактовой частоты процессора и напряжением, что позволяет добиться максимальной производительности GPU .

В продукт внедрена технология адаптивной синхронизации NVIDIA Adaptive Vertical Sync. Эта технология включается при высокой частоте смены кадров для устранения разрывов изображения, а при низкой — отключается, чтобы свести дрожание кадров к минимуму.

Разработчик гарантирует полноценную работу видеокарты с новым API Microsoft DirectX 12, который позволяет значительно снизить нагрузку на центральный процессор и ускорить рендер изображений.

В целом, новый ускоритель является идеальным решением для игр в сверхвысоком разрешении UHD 4K на максимальных настройках качества. Он также обеспечивает достаточную производительность в набирающих популярность системах виртуальной реальности.

Достоинства

Максимальная производительность Высочайшая производительность решения для энтузиастов позволяет играть во все современные компьютерные игры с 4K разрешением и максимальным качеством изображения. Имеет значительный запас для будущих игр. Поддержка SLI Возможность объединения в группу позволяет создавать конфигурации из двух, трёх и четырёх карт (при использовании SLI -совместимой материнской платы) для дополнительного повышения быстродействия игр. Подключение дополнительных дисплеев Возможность одновременного использования Dual-link DVI , HDMI и DisplayPort для работы в мультимониторных конфигурациях, содержащих до 4 дисплеев. Хороший разгон Благодаря отработанной 28 нм технологии производства GPU и высокой энергоэффективности архитектуры Maxwell, видеокарта GeForce GTX Titan X обладает превосходными возможностями по разгону видеопроцессора. Профессиональные оверклокеры умеют разгонять GPU этого ускорителя в 2 раза. Хорошая работа с видео Полное ускорение декодирования всех основных форматов видео, как на дисках DVD /Blu-ray, так и из Интернет, поддержка функции «картинка в картинке», поддержка ускорения CUDA / OpenCL / DirectX для кодировщиков и редакторов видео, аппаратное декодирование HEVC. Готовность к 3D Vision Stereo Карта обладает производительностью более чем достаточной для вывода полноценного стереорежима в играх при использовании комплекта NVIDIA 3D Vision (требуется совместимый монитор). Поддержка ускорения PhysX Графический процессор обладает достаточной мощностью для одновременного расчёта трёхмерной графики и дополнительных спецэффектов в поддерживающих PhysX играх. Низкое энергопотребление Благодаря новой архитектуре GPU данный видеоускоритель обладает высочайшей энергоэффективностью. В результате, для его работы достаточно более скромного блока питания (от 600 Вт), чем для топового решения прошлого поколения, ускорителя GeForce GTX Titan Z. Готовность к виртуальной реальности Карта обладает технологией VR Direct , которая специально предназначена для работы с устройствами виртуальной реальности. Разработка предполагает использование нескольких видеокарт в конфигурации SLI , включает технологии Asynchronous Warp, которая сокращает задержки изображения и быстро подстраивает картинку в соответствии с поворотом головы, и Auto Stereo, которая повышает совместимость игр с устройствами виртуальной реальности, такими как Oculus Rift.

Недостатки

Высокая цена Стоимость больше 1000 долларов США и выше существенно ограничивает круг покупателей. Высокие системные требования Для максимально эффективного использования карты желательна «дорогая» конфигурация ПК, включающая современную материнскую плату с поддержкой PCI Express 3.0, наиболее производительный центральный процессор, память DDR4 и PCI -e твердотельный накопитель для запуска игр.
Чипсет