Яндекс.Метрика


Система Orphus

Не для кого не секрет, что новое — есть хорошо забытое старое, а иногда и не очень забытое, а иногда еще и кастрированное «до кучи»!…

т.е.  нужен новый продукт: снимаем лишние башни инкрементируем циферку в лейбле … и в путь!!! А если еще сдобрить кастрата сниженной ценой — то лох обязательно клюнет! И так встречайте ...

GeForce GTX 780 – Кастрированный Титан.

Но данный обзор мы посвятим, конечно, не маркетинговому уроду от NVidia (иначе не скажешь, ниже поясню), выпущенному исключительно по причине что «нужно», а представить чего-нибудь действительно технологически обновленного по сути в данный момент NVidia просто нечего …

А материал сей далее посвящен герою своего времени (конца 2012 – и текущего 2013 года) который был взят за прототип 700-ой серии - GTX Titan'у …

GeForce GTX TITAN.

Резюмируя не раз сказанное в обзорах подытожим основное по данной видеокарте. В 2012 году очередная (шестисотая) серия GeForce от NVidia (GTX 680) имеет т.н. архитектуру Kepler и построена на чипе GK104. Одновременно с этим, устройством на базе этой же (киплер) архитектуры пополняется и линейка математических ускорителей NVidia Tesla – топовым среди которых становится Tesla K20x, построенный на чипе GK110.

Помню тогда еще, в течение 12-ого года, даже когда GK104 был еще молод (как и вся архитектура Kepler – со всеми вытекающими) были обсуждения, на предмет того: будет ли видяха на GK110 или нет?.. И вот только к концу года NVidia все-таки решается прирастить «видео-головы» к GK110 и выпустить на базе него видеокарту. Понятно, что продукт получался неординарным. Куда  его позиционировать ясности не было даже у NVidia – по сути та же 600-я серия (по архитектуре), но тем не менее решили оставить данный продукт особняком (впервые за много лет видяха вдруг перестала иметь цифровой индекс). Ускорители Тесла хоть и основаны на ядрах архитектуры аналогичной соответствующему семейству видеокарт, но так же имеют и «фичи» присущие только им. Т.е. другими словами чипы видеокарт преднамеренно ограничивают в производительности и/или функциональности математического аппарата (надо же как-то стимулировать «Теслу», и срубать за них в разы бОльшие деньги). И так получив видео головы и уникальное название – GTX TITAN – GK110 стал теперь ядром видеокарты (но с чертами Теслы, но об этом ниже). И теперь, уже с оглядкой назад, становится понятно, почему NVidia не спешила, и не причислила Титана к 600-ой серии. Наступил 2013 год, нужно выпускать 700-ю серию (маркетологи поджимают) … а новых решений нет! Беда??? Фигня вопрос – в ход идет не самый красивый, но единственный (видимо) козырь …

Чем должна отличаться видеокарта новой серии от предыдущей? Любой лох ответит – производительностью! Так оно всегда и было, новая архитектура это или оптимизированная старая, или … это уже вопрос технический, и если и интересный кому, то как минимум программистам … А «круче» чем GTX 680 (и даже местами чем GTX 690 aka SLI GTX 680 x2) есть только GTX TITAN – но цена на него неподъемная для большинства геймеров. Просто так снизить цены (себе в убыток) тоже нельзя – изготовление бездефектного кристалла GK110 c 7500 миллионами транзисторов по технологии 28nm задача сейчас не из простых (GK110 рекордсмен среди всех кристаллов по количеству транзисторов и на втором месте по плотности транзисторов на единицу площади). Остается только пустить в серию отбракованные кристаллы (которых, видимо, скапливается ни мало). И так, правом носить имя нового «флагмана» 700-ой серии GTX 780 достается «кристаллу из корзины», у которого не получилось стать Титаном, но исправно работает 12 мультипроцессоров (вместо 14-ти Титановских)! М-да … видать действительно брака скопилось не просто много, а очень много – но избавиться от него по цене в 2/3 от цены Титана тема привлекательная для NVidia (вполне логично) – но обзывать это новой 700-ой серией, а хотя что там, лох/геймер (среди которых основное количество потребителей мощных видеокарт) - все равно не будет глубоко вникать …

Ну и теперь Титана NVidia уже записывает в 700-ю серию (на страничке загрузки драйверов). Как флагмана? – сложно сказать … По крайней мере тут же NVidia бесстыже рекламирует GTX 780 как «непревзойденную производительность» и прочими топовыми слоганами … но мы с вами знаем реальную картину.

Но GTX 780 представляет собой не только «обезглавленную» сущьность – он даже и не вспоминает, что когда-то мог стать Теслой и покорно готов лишь довольствоваться игровым его применением. Другое дело - GK110 в составе GTX TITAN: став видеокартой он в первую очередь сохранил максимум функционала именно как математического ускорителя - полный математический аппарат Тесла, только без коррекции ошибок ECC (и цена более чем в 4 раза ниже ;-))

 

С чем целесообразно сравнивать производительность GTX TITAN? С одной стороны это фактически тот же ускоритель Tesla K20x – и что тут сравнивать? С продуктами на чипе GK104? – так это вроде как несколько другая ниша (и по функционалу и по цене). Тем не менее, раз уж одели волка в овечью шкуру и позиционировали Теслу как видяху – то «не посрамиться» тут может только что «спаренное» решение – два GK104 на одной плате (в режиме SLI) более известное под названием GeForce GTX 690, что также эквивалентно двухслотовому варианту пары GeForce GTX 680.

В чисто игровом варианте у GTX 690 наблюдается местами некоторое преимущество перед GTX TITAN – что не удивительно: парное решение имеет большее количество шейдерных процессоров. Но когда дело доходит до математики … Титан однозначно берет верх. Но даже и без «математики» одночиповое решение с единым массивом памяти (причем  на 50% большим) зачастую более предпочтительно (бесконфликтно) чем пресловутое SLI.

Да кстати, по объему памяти Титан тоже рекордсмен – целых 6Гб (GTX 680 – 2Гб; GTX 690 – 2+2Гб; GTX 780 – 3Гб). Но в 32-х разрядных операционках из шести гиг доступно лишь максимум четыре.

Касательно режимов работы и производительности. В сравнении с моделями видеокарт предыдущих поколений, где если что и регулировалось автоматически, так это скорость вентилятора в зависимости от температуры, ну и было прописано несколько «частотных» профилей (как правило три: рабочий стол, «легкое» 3D и полное 3D). В общем-то профилями можно было и пренебречь – быстродействием (или энергосбережением) в 2D на рабочем столе как правило не заморачиваются, а в 3D стараются выжать максимум … более того, изменять настройки профилей в BIOS видеокарты решиться не каждый (прошли те времена когда искали более «скоростной» BIOS или меняли в нем шрифты текстовых режимов), сейчас это тема не актуальна. Сегодня утилиты тюнинга, представляющие из себя морды управления RivaTuner-сервером (наиболее популярны от MSI или EVGA) позволяют регулировать настройки видеокарты в реальном времени, и не только по данным мониторинга (настраиваемая диаграмма скорости работы пропеллера), но и по горячим клавишам – переключение протестированных ранее пользователем и сохраненных профилей работы в полноскоростном 3D режиме (частоты ядра и памяти, напряжение питания, скорость пропеллера). Титан же предоставляет более «глубокую» автоматизацию регулировки этих настроек, что по началу несколько не привычно – хотя поняв что к чему, куда более как удобно. Об этом несколько подробнее.

Видеокарта имеет базовый профиль для полноскоростного 3D с начальным пресетом частоты ядра и напряжением питания (в моем случае 875MHz и 1000mV), ключевым параметром является максимальная температура системы (видеокарты), например 80*С. Далее при полной нагрузке видеокарта осуществляет автоматический разгон с увеличением питающего напряжения с одновременным контролем температуры до тех пор пока температура ниже заданной планки – при превышении порогового значения происходит автоматическое снижение частоты и напряжения питания ядра. Вентилятор при этом может быть как в режиме автоматической регулировки скорости (по-умолчанию), так и в режиме форсированной скорости (вручную), как и раньше имеется также возможность задавать диаграмму зависимости скорости пропеллера от температуры (при помощи указанных выше утилит). Итого в режиме автоматического разгона мой экземпляр от EVGA при полной загрузке достигает и стабильно работает на 1045MHz и 1160mV, правда для этого приходится форсировать скорость пропеллера минимум до 66% (при температуре в комнате 28*С). Достойный вобщем экземпляр Титана попался – EVGA ответственно подходят к отбору чипов для OverClock Edition – жаль что данный сборщик не представлен официально на нашем рынке. Из имеющихся ASUS, Gigabyte и Zotac – выбрал бы лишь последнюю (в случае, если бы не удалось раздобыть EVGA).

Пару слов о пропеллере. Конструкция классическая – турбинного типа (как и на многих топовых видяхах NVidia). Приятно удивила малошумность работы конструкции. При оборотах до 66% шум работы системы охлаждения видеокарты не превышает общего фона работы остальных кулеров в системном блоке (т.е. не различим). До 75% - можно отличить шум пропеллера видяхи от общего фона, если задаться данным вопросом и если не играет музыка. И лишь от 80% до 85% (максимальное) возникает ассоциация шума от видяхи с пылесосом …

Современные игры (2013 года издания) не ожидают наличия такого уровня производительности как у GTX TITAN, и ресурсы видеокарты во многих играх остаются невостребованными (что положительно сказывается на температуре конструкции), и видеокарта во многих играх, даже на выкрученных до упора на максимум настройках не выходит на максимальные частоты (не требуется) – интеллектуальная железка вобщем ;-)

На старых приложениях скорость, понятно достойная, но не в такое количество раз более высокая, как ожидаешь осуществив, например, сравнение «в лоб» количества шейдерных процессоров и их частоты. Архитектура Kepler в этом несколько специфичная, в том числе и очень «крупным» размером мультипроцессора (192 ядра) – у Fermi, например, в 4 раза меньше (48 ядер). Такая особенность  позволяет чипам  Fermi (400-я и 500-я серии) более эффективно общитывать в OpenCL (и не только) те же Биткоины. Так например GTX 560Ti (384 ядра в 8-ми мультипроцессорах) показывает результат около 100MHash/s – а сабжевый Титан (2688 ядер, но всего в 14-ти мультипроцессорах) - 190MHash/s … мало, но пропорционально количеству мультипроцессоров а не ядер. И лишь более оптимизированный код на CUDA позволяет Титану выдать результат в 330MHash/s. Т.е. можно говорить, что оптимизированного софта под нового «монстра» не так пока и много, из-за чего пока его возможности раскрываются не полностью. Подобная ситуация позволяет превратить ПК в игровую консоль (когда пользователь не задумывается как, а просто играет всегда с максимальными настройками и без тормозов), а Титану возможность оставаться в лидерах еще продолжительное время … С другой стороны справедливо и то, что разработчики (игр в частности) все же ориентируются на среднего пользователя, с не самым топовым железом.

MiGeRA (июль 2013)

Дополнение.

Вот прошел уже год с выхода в свет Титана (GTX TITAN). И вот уже год NVidia так и не может представить замену своему творению в сегменте топовых видеокарт. Про потуги AMD даже говорить не буду - пускай дальше обогревают воздух своими печками, как вычислители они до сих пор в глубоком дауне. Даже при более высоких частотах канадцы не могут выжать из своих утюгов ни процента лишней производительности. В то время как Титаны благополучно работают на частотах выше гигагерца без сильного напряга! В принципе и NVidia тоже практически выжали максимум из топологии 28нм - причем, как удешевить производство или повысить выпуск годных кристаллов - задачу так и не решили. Но надо чем-то взбодрить массы - и на волне срубить еще с лохов под конец года.

В заголовок статьи можно смело приписывать и GTX 780Ti (помимо без-Ti-ной версии). Подробная обзорная статья про него есть тут. Понятно, что на таком крупном ресурсе как 3D-News не могут написать что NVidia в очередной раз облажалась, или продолжает дурить лохов и стремиться всеми мыслимыми и немыслимыми силами повышать продажи того что остается продавать (GK110) - выбора то нет.

GTX 780Ti не более чем развитие GTX 780 - но никак не конкурент Титану! (как пытаются представить нам рекламщики). Да, теперь в сборке Ti используются чипы GK110 со всеми 15-ю активными мультипроцессорами (у GTX 780 - 12, у GTX TITAN - 14) - но! - на карте по-прежнему всего 3Гб памяти (а не 6Гб) и нет поддержки ускоренных вычислений двойной точности 1/24 от FP32 (против 1/3 у Титана). Цена же на Ti-карточку немаленькая - порядка 750 баксов (декабрь 2013). Вобщем хрень сотворили. "Лохи! - Ау!" (с)

PS. Преддверье 2013 - и текущего 2014 года - деградация развития NVidia (как лидера рынка видеокарт) налицо! - и занять ее место просто некому. Да стоит признать и то, что программисты обленились вконец тоже. Если раньше явно прослеживалась тенденция что требовалось более мощное железо под уже созданный софт (игры), хотя и тогда многие обвиняли программеров, что дескать столь быстрый рост вычислительных мощностей расслабляет, и генерируемый код все дальше от идеала эффективности. Сейчас же наблюдаем полный пассив - железо есть - нет игрушек, которые могли бы использовать новые технологические особенности железа! Фичность Титана как была невостребована год назад, так не востребована и сейчас, - что уж говорить о системе с 3-мя GTX-TITAN'ами?! Действительно - разрабатывать новое железо в такой ситуации может казаться и не целесообразным ... пусть горе-программеры освоят то, что уже создано!

MiGeRA (декабрь 2013)



Заглавная » Железо компьютерное » Обзоры устройств » GeForce GTX TITAN