Не для кого не секрет, что новое — есть хорошо забытое старое, а иногда и не очень забытое, а иногда еще и кастрированное «до кучи»!…

т.е.  нужен новый продукт: снимаем "лишние башни" инкрементируем циферку в лейбле серии … и в путь!!! А если еще сдобрить кастрата сниженной ценой — то лох обязательно клюнет! И так встречайте ...

GeForce GTX 780 – Кастрированный Титан!

Ха-ха, если бы это было действительно смешно, а не грустно ...

Но данный обзор мы посвятим, конечно, не маркетинговым уродам от NVidia - линейке GTX 7xx (всей, иначе не скажешь: ниже поясню), выпущенным на рынок исключительно по причине что «нужно», а представить чего-нибудь действительно технологически обновленного в данный момент NVidia просто нечего …

А материал сей далее посвящен герою своего времени (конца 2012 – и текущего 2013 года) который был взят NVidia за прототип 700-ой серии - GTX Titan'у …

GeForce GTX TITAN (первый, настоящий)

и "вторая жизнь" Титана в 2022 году

Вкратце резюмируя не раз сказанное в обзорах подытожим основное по данной видеокарте:

В 2012 году очередная (шестисотая) серия GeForce от NVidia (GTX 680) имеет т.н. архитектуру Kepler и построена на чипе GK104. Одновременно с этим, устройством на базе этой же (киплер) архитектуры пополняется и линейка математических ускорителей NVidia Tesla – топовым среди которых становится Tesla K20x, построенный на чипе GK110.

Помню тогда еще, в течение 12-ого года, даже когда GK104 был еще молод (как и вся архитектура Kepler – со всеми вытекающими) были обсуждения, на предмет того: будет ли видяха на GK110 или нет?.. И вот только к концу года NVidia все-таки решается прирастить «видео-головы» к GK110 и выпустить на базе «тесловского камня» видеокарту. Понятно, что продукт получался неординарным. Куда его позиционировать ясности не было даже у NVidia – по сути та же 600-я серия (по архитектуре тот же киплер), но тем не менее решили оставить данный продукт особняком (впервые за много лет видяха вдруг перестала иметь цифровой индекс). Но по-началу драйвера на Титан лежали именно в разделе 600-ой серии ;-)

Ускорители Тесла хоть и основаны на ядрах архитектуры аналогичной соответствующему семейству видеокарт, но так же имеют и «фичи» присущие только им (и отсутствие активного охлаждения одна из них ...) Т.е. другими словами чипы видеокарт преднамеренно ограничивают в производительности и/или функциональности математического аппарата (надо же как-то стимулировать продажи «Теслы», и срубать за них в разы бОльшие деньги). И так получив видео головы и уникальное название – GTX TITAN – GK110 стал теперь ядром видеокарты (но с чертами Теслы, но об этом ниже). И теперь, уже с оглядкой назад, становится понятно, почему NVidia не спешила, и не причислила Титана к 600-ой серии. Наступил 2013 год, нужно выпускать 700-ю серию (маркетологи поджимают) … а новых решений нет! Беда??? Фигня вопрос – в ход идет не самый красивый, но единственный (видимо) козырь …

Чем должна отличаться видеокарта новой серии от предыдущей? Любой лох ответит – производительностью! Так оно всегда и было, новая архитектура это или оптимизированная старая (как 500-ая после 400-ой), или … (это уже вопрос технический, и если и интересный кому, то как минимум программистам). А «круче» чем GTX 680 (и даже местами чем GTX 690 aka SLI - GTX 680 x2) есть только GTX TITAN – но цена на него неподъемная для большинства геймеров. Просто так снизить цены (себе в убыток?) тоже нельзя – изготовление бездефектного кристалла GK110 c 7500 миллионами транзисторов по технологии 28nm задача сейчас не из простых (GK110 рекордсмен среди всех кристаллов по количеству транзисторов и на втором месте по плотности транзисторов на единицу площади). Остается только пустить в серию отбракованные кристаллы (которых, видимо, скапливается не мало). И так, правом носить имя нового «флагмана» 700-ой серии GTX 780 достается «кристаллу из корзины», у которого не получилось стать Титаном, но исправно работает 12 мультипроцессоров (вместо 14-ти Титановских)! М-да … видать действительно брака скопилось не просто много, а очень много – но избавиться от него по цене в 2/3 от цены Титана тема привлекательная для NVidia (вполне логично) – но обзывать это новой 700-ой серией! А хотя что там, лох/геймер (среди которых основное количество потребителей мощных видеокарт) - все равно не будет глубоко вникать …

Ну и теперь Титана NVidia уже записывает в 700-ю серию (на страничке загрузки драйверов). Как флагмана? – сложно сказать … По крайней мере тут же NVidia бесстыже рекламирует GTX 780 как «непревзойденную производительность» и прочими топовыми слоганами … но мы то с вами знаем реальную картину.

Но GTX 780 представляет собой не только «обезглавленную» сущность – он даже и не вспоминает, что когда-то мог стать Теслой и покорно готов лишь довольствоваться игровым его применением. Другое дело - GK110 в составе GTX TITAN: став видеокартой он в первую очередь сохранил максимум функционала именно как математического ускорителя - полный математический аппарат Тесла, только без коррекции ошибок ECC (и цена более чем в 4 раза ниже ;-))

 

С чем целесообразно сравнивать производительность GTX TITAN? С одной стороны это фактически тот же ускоритель Tesla K20x – и что тут сравнивать? С продуктами на чипе GK104? – так это вроде как несколько другая ниша (и по функционалу и по цене). Тем не менее, раз уж одели волка в овечью шкуру и позиционировали Теслу как видяху – то «не посрамиться» тут может только что «спаренное» решение – два GK104 на одной плате (в режиме SLI) более известное под названием GeForce GTX 690, что также эквивалентно двухслотовому варианту пары GeForce GTX 680.

В чисто игровом варианте у GTX 690 наблюдается местами некоторое преимущество перед GTX TITAN – что не удивительно: парное решение имеет большее количество шейдерных процессоров. Но когда дело доходит до математики … Титан однозначно берет верх. Но даже и без «математики» одночиповое решение с единым массивом памяти (причем на 50% большим) зачастую более предпочтительно (бесконфликтно) чем пресловутое SLI.

Да кстати, по объему памяти Титан тоже рекордсмен – целых 6Гб (GTX 680 – 2Гб; GTX 690 – 2+2Гб; GTX 780 – 3Гб). Но в 32-х разрядных операционках (если вдруг кто такие использует) из шести гиг доступно лишь максимум четыре.

Касательно режимов работы и производительности. В сравнении с моделями видеокарт предыдущих поколений, где если что и регулировалось автоматически, так это скорость вентилятора в зависимости от температуры, ну и было прописано несколько «частотных» профилей (как правило три: рабочий стол, «легкое» 3D и полное 3D). В общем-то профилями можно было и пренебречь – быстродействием (или энергосбережением) в 2D на рабочем столе как правило не заморачиваются, а в 3D стараются выжать максимум … более того, изменять настройки профилей в BIOS видеокарты решиться не каждый (прошли те времена когда искали более «скоростной» BIOS или меняли в нем шрифты текстовых режимов), сейчас это тема не актуальна. Сегодня утилиты тюнинга, представляющие из себя морды управления RivaTuner-сервером (наиболее популярны от MSI или EVGA) позволяют регулировать настройки видеокарты в реальном времени, и не только по данным мониторинга (настраиваемая диаграмма скорости работы пропеллера), но и по горячим клавишам – переключение протестированных ранее пользователем и сохраненных профилей работы в полноскоростном 3D режиме (частоты ядра и памяти, напряжение питания, скорость пропеллера). Титан же предоставляет более «глубокую» автоматизацию регулировки этих настроек, что по началу несколько не привычно – хотя поняв что к чему, куда более как удобно. Об этом несколько подробнее.

Видеокарта имеет базовый профиль для полноскоростного 3D с начальным пресетом частоты ядра и напряжением питания (в моем случае 875MHz и 1000mV), ключевым параметром является максимальная температура системы (видеокарты), например 80*С. Далее при полной нагрузке видеокарта осуществляет автоматический разгон с увеличением питающего напряжения с одновременным контролем температуры до тех пор пока температура ниже заданной планки – при превышении порогового значения происходит автоматическое снижение частоты и напряжения питания ядра. Вентилятор при этом может быть как в режиме автоматической регулировки скорости (по-умолчанию), так и в режиме форсированной скорости (вручную), как и раньше имеется также возможность задавать диаграмму зависимости скорости пропеллера от температуры (при помощи указанных выше утилит). Итого в режиме автоматического разгона мой экземпляр от EVGA при полной загрузке достигает и стабильно работает на 1045MHz и 1160mV, правда для этого приходится форсировать скорость пропеллера минимум до 66% (при температуре в комнате 28*С). Достойный вобщем экземпляр Титана попался – EVGA ответственно подходят к отбору чипов для OverClock Edition (по ссылке биос моего экземпляра) – жаль что данный сборщик не представлен официально на нашем рынке. Из имеющихся ASUS, Gigabyte и Zotac – выбрал бы лишь последнюю (в случае, если бы не удалось раздобыть EVGA).

Пару слов о пропеллере. Конструкция классическая – турбинного типа (как и на многих топовых видяхах NVidia). Приятно удивила малошумность работы конструкции. При оборотах до 66% шум работы системы охлаждения видеокарты не превышает общего фона работы остальных кулеров в системном блоке (т.е. не различим). До 75% - можно отличить шум пропеллера видяхи от общего фона, если задаться данным вопросом и если не играет музыка. И лишь от 80% до 85% (максимальное) возникает ассоциация шума от видяхи с пылесосом …

Современные игры (2013 года издания) не ожидают наличия такого уровня производительности как у GTX TITAN, и ресурсы видеокарты во многих играх остаются невостребованными (что положительно сказывается на температуре конструкции), и видеокарта во многих играх, даже на выкрученных до упора на максимум настройках не выходит на максимальные частоты (не требуется) – интеллектуальная железка вобщем ;-)

На старых приложениях скорость, понятно достойная, но не в такое количество раз более высокая, как ожидаешь осуществив, например, сравнение «в лоб» количества шейдерных процессоров и их частоты. Архитектура Kepler в этом несколько специфичная, в том числе и очень «крупным» размером мультипроцессора (192 ядра) – у Fermi, например, в 4 раза меньше (48 ядер). Такая особенность позволяет чипам  Fermi (400-я и 500-я серии) более эффективно обсчитывать в OpenCL (и не только) те же Биткоины. Так например GTX 560 Ti (384 ядра в 8-ми мультипроцессорах) показывает результат около 100MHash/s – а сабжевый Титан (2688 ядер, но всего в 14-ти мультипроцессорах) - 190MHash/s … мало, но пропорционально количеству мультипроцессоров а не ядер. И лишь более оптимизированный код на CUDA позволяет Титану выдать результат в 330MHash/s. Т.е. можно говорить, что оптимизированного софта под нового «монстра» не так пока и много, из-за чего пока его возможности раскрываются не полностью. Подобная ситуация позволяет превратить ПК в игровую консоль (когда пользователь не задумывается как, а просто играет всегда с максимальными настройками и без тормозов), а Титану возможность оставаться в лидерах еще продолжительное время … С другой стороны справедливо и то, что разработчики (игр в частности) все же ориентируются на среднего пользователя, с не самым топовым железом.

MiGeRA (июль 2013)

Дополнение.

Вот прошел уже год с выхода в свет Титана (GTX TITAN). И вот уже год NVidia так и не может представить замену своему творению в сегменте топовых видеокарт. Про потуги AMD даже говорить не буду - пускай дальше обогревают воздух своими печками, как вычислители они до сих пор в глубоком дауне. Даже при более высоких частотах канадцы не могут выжать из своих утюгов ни процента лишней производительности. В то время как Титаны благополучно работают на частотах выше гигагерца без сильного напряга! В принципе и NVidia тоже практически выжали максимум из топологии 28нм - причем, как удешевить производство или повысить выпуск годных кристаллов - задачу так и не решили. Но надо чем-то взбодрить массы - и на волне срубить еще бабла с лохов под конец года.

В заголовок статьи можно смело приписывать и GTX 780Ti (помимо без-Ti-ной версии). Подробная обзорная статья про него есть тут. Понятно, что на таком крупном ресурсе как 3D-News не могут написать что NVidia в очередной раз облажалась, или продолжает дурить лохов и стремиться всеми мыслимыми и немыслимыми силами повышать продажи того что остается продавать (GK110) - выбора то нет.

GTX 780Ti не более чем развитие GTX 780 - но никак не конкурент Титану!!! (как пытаются представить нам рекламщики). Цена же на Ti-карточку немаленькая - порядка 750 баксов (декабрь 2013). Вобщем хрень сотворили. "Лохи! - Ау!" (с). Да, теперь в сборке Ti используются чипы GK110 со всеми 15-ю активными мультипроцессорами (у GTX 780 - 12, у GTX TITAN - 14), отбраковка закончилась. НО! - на карте по-прежнему всего 3Гб памяти (а не 6Гб) и нет поддержки ускоренных вычислений двойной точности: владельцы GTX 780(Ti) довольствуются производительность в "double-float" лишь 1/24 от "single-float" (FP32). В то время как у Титана это 1/3, т.е. в восемь раз быстрее (в соответствующем режиме) - с учетом того что скорость в FP32 плюс-минус (с учетом лишнего/недостающего мультипроцессора и частот) одинаковая. Режим же повышенной производительности вычислений с двойной точностью у Титана включается отдельной опцией в настройках драйвера, а результат (CUDAZ) такой:

Включенный режимВыключенный режим (по-умолчанию)
Memory Copy
Host Pinned to Device5496.95 MiB/s
Host Pageable to Device2231.19 MiB/s
Device to Host Pinned6029.34 MiB/s
Device to Host Pageable2137.81 MiB/s
Device to Device103.892 GiB/s
GPU Core Performance
Single-precision Float3995.76 Gflop/s
Double-precision Float1652.04 Gflop/s
64-bit Integer174.102 Giop/s
32-bit Integer828.732 Giop/s
24-bit Integer818.481 Giop/s
Memory Copy
Host Pinned to Device5627.55 MiB/s
Host Pageable to Device2213.09 MiB/s
Device to Host Pinned6159.6 MiB/s
Device to Host Pageable2200.38 MiB/s
Device to Device105.631 GiB/s
GPU Core Performance
Single-precision Float4604.47 Gflop/s
Double-precision Float239.485 Gflop/s
64-bit Integer199.483 Giop/s
32-bit Integer956.857 Giop/s
24-bit Integer952.468 Giop/s

Видно что ценой за семикратный прирост производительности вычислений с двойной точностью (результат почти как у Теслы), является незначительное снижение производительности вычислений "одинарной" точности и целочисленной арифметики, но всего на порядка 15%. Так что с учетом запаса общей производительности устройства (и неполной ее востребованности в играх) - целесообразно держать включенным данный режим всегда ;-)

PS. В преддверие как 2013, так и текущего 2014 года - деградация развития NVidia (как лидера рынка видеокарт) налицо! - а занять ее место просто некому. Да стоит признать и то, что программисты обленились вконец тоже. Если раньше явно прослеживалась тенденция что требовалось более мощное железо под уже созданный софт (игры), хотя и тогда многие обвиняли программеров, что дескать столь быстрый рост вычислительных мощностей расслабляет, и генерируемый код все дальше от идеала эффективности. Сейчас же наблюдаем полный пассив - железо есть - нет игрушек, которые могли бы использовать новые технологические особенности железа! Фичность Титана как была невостребована год назад, так не востребована и сейчас, - что уж говорить о системе с 3-мя GTX-TITAN'ами?! Действительно - разрабатывать новое железо в такой ситуации может казаться и не целесообразным ... пусть горе-программеры освоят то, что уже создано!

MiGeRA (декабрь 2013)

Продолжим или завершим? - дополним еще! ... или "вторая жизнь" Титана

Обычная видяха покупается на три года - продвинутая на шесть лет. Наступил 2019 год и плановое время апгрейда Титана, намеченное чуть ли еще не при его покупке. Но смысла апрейда для себя я явно не видел, хватало производительности для всех современных игр в максимальных настройках. Для "математики" же скорость лишней не бывает никогда конечно, но платить за это деньги когда и так все работает - не оптимально было тогда ... Апгрейд не то что бы отложился совсем но вяло затягивался как не сильно нужный, да и большинство игр и так уже на мобильных платформах была.

Осенью 20-ого года еще раз вернулся к идее апгрейда Титана и даже изучил актуальную ситуацию по железу и ценам. Навскидку была мысль брать современного "титана". Но такового не оказалось. Был Titan V на чипе с архитектурой "вольта", он был не нов, но стоил при этом бешеных денег до сих пор (кстати, на этой архитектуре видеокарт кроме Титана не было, "нишевая" архитектура такая получилась - были Теслы). Т.е. какбы этот "вольтовский титан" стал вершиной всех предыдущих не-RTX видиокарт (малодоступный по цене и практически устаревший сразу).

Но RTX уже вовсю давно продавались, обладали архитектурными новшествами и были при этом раза в два так дешевле того пресловутого Titan V. Был реальный вариант за порядка 50-60тыр приобрести новый RTX280 (в официальном онлайн-магазине). Да, 280-я серия уже больше года в продаже и цены на нее вполне себе снизились за прошедшее с момента выпуска время. Но была уже не только анонсирована но и выпущена в ряде забугорных регионов новая и хотя и не революционная (таже RTX-серия, начавшаяся с этой самой "двухсотки"), но куда как более "вкусная" RTX380 причем за практически такую же цену (на 10тыр дороже). Решил подождать, ибо опять не к спеху было - а так, что, покупать без 5 минут устаревшее железо за теже практически деньги ... Отложил покупку, и наверное зря - практически до сих пор сожалею. Так до начала 21-ого года RTX380 в широкой продаже за анонсируемую цену не появилась, перекупы предлагали втридорого (реально - в три раза). Впервые на моей памяти чтоб мировой гигант не мог удовлетворить спрос на свою продукцию на протяжении нескольких месяцев! ПОЗОР NVidia!!! Но факт оставался фактом ... не горело.

21-ый год ситуация явно не улучшалась. Ниже сотни тыр нельзя уже было купить не только RTX380, но и предшественника RTX280 (от которого я практически увернулся). Но причем тут древний первый Титан 2013 года? - а он не то чтобы совсем умер, а так сказать "ушел на заслуженный отдых" в конце 2020 года. В очередной день после включения и загрузки компа экран пестрил слегка динамичными горизонтальными красными полосами поверх изображения, а драйвер не запустился вовсе (в устройствах восклицательный заначек информировал об этом) ... Всё предписывало сушить весла. И в качестве аварийного варианта в строй встала GTX 560 Ti - почти на полтора года, кто бы мог подумать?!

Самое время купить новую видяху! Да. Но в части RTX280 время безвозвратно упущено, а для RTX380 еще не наступило - переплачивать барыгам (которым место за решёткой - за спекуляцию), ни-ни ;-))

Наступил 22-ой год, как только мы наконец-таки решились и успешно побороли мировой маскарад, вдарив по производителю всемирно известного вируса - янки самоотморозились и решили обособиться от нас ... дурачье, да не об этом. Бакс взлетел, потом отскочил обратно и дальше упал ниже плинтуса к временам 5 с лишним летней давности ... все вернулось на свои места. Только вот дополнительные заморочки с импортом железа явно не будут способствовать снижению цен на него.

Актуальность починки ретро-Титана возросла! ;-)) Были конечно мысли и даже информационно-практические изыскания на эту тему и ранее. Было очевидно что требуется пропайка или лучше перепайка основного чипа (а может еще и памяти, или только памяти?) - но даже в столице найти, вернее определить с первого раза, "правильный" сервис непросто. Цены на услуги - не показатель, да и платить 3-5тыр я готов был только за результат с гарантией по крайней мере того что не убьют видяху полностью ... Деятелей сорвать куш с юзеров у нас море, а наличие оборудования не показатель умения им пользоваться. Да и во времена маскарада еще многие сервисы закрылись или ушли в подполье.

А тут буквально на той неделе: загуглил, зашел на ютуб - и просто удивился валу разного материала по "прогреву" видеокарт для устранения "отвалов". Атас! И какие только методы не предлагают - кулинарам впору нервно курить в стороне! Видеокарты и в духовке целиком запекают, причем как в фольге так и без (кроме шуток); и прогревают всем подручным начиная от фена для волос, галогенной лампы из фары автомобиля, зажигалки, утюга и до ... (не берусь пытаться перечислять даже часть прочих не менее бредовых способов). Некоторые ролики демонстрируют якобы даже удачные результаты. Полезное зерно из этих "отжигов" (и в прямом, и в переносном смысле) извлечь конечно можно, но нужно его еще и правильно применить!

И так. Ничего удивительного, что со временем продолжительной штатной эксплуатации видеокарты, когда нагрев-остывание и провоцируемые ими нагрузки термических деформаций регулярны - происходит "уставание" припоя в шариках BGA-соединения, появляются микротрещины. Самое технически-правильное решение в этом случае это полная перепайка чипа, что сродни его замене на новый (но устанавливается старый). Т.е. отпаивается (воздушной паяльной станцией) чип, очищаются от старого припоя контактные площадки, через трафарет наносятся новые шарики, чип впаивается обратно ... Наворочено, требуется не дешевое оборудования, материалы, умение работать с ними ... Более простой во всех отношениях вариант - "пропайка" того что есть, без демонтажа (т.е. то что и пытаются разными изощренными способами сымитировать во многих роликах). Посмотрев, ужаснувшись и проанализировав что тут есть правильно и нет - решил сделать максимально технологичным способом из имеющихся в наличии инструментов.

Понятно что греть всю плату и не контролируемо ("в духовке") - не вариант ни разу. Утюг - тоже так себе затея с точки зрения равномерности прогрева, да и греть крышку кристалла чипа ради прогрева ног - тоже несколько через жёпная идея. Фен для волос едва ли будет способен разогреть конструкцию даже до штатных при работе 80*С, а до сотни точно не прогреет (чтоб капля воды испарялась с поверхности) - а ведь при 100*С только "сплав розе" будет плавиться, а чип припаян явно чем-то более тугоплавким ...

Вобщем вооружился классическим паяльным феном (насадку ставить не стал, для получения равномерного прогрева и избежания локальных контрастов), а также пирометром (бесконтактным термометром) для контроля процесса. Поставил целью прогреть чип этак градусов до 150, например - ведь на нижней части прямо под чипом есть всякая мелкая "рассыпуха" и нельзя допустить чтоб она разогревшись "отпала" (прижать ее в силу неравномерности высот тоже не получится, поэтому предпочел чтоб она была навесу - для скорейшего остывания и отсутствия риска ее смещения).

Фен на 170*С - греем ... Расстояние в 2-3см, чип прогревается едва чуть выше сотни градусов, мало! Это при том что на выходе сопла неслабый поток такой и намного горячее! (привет тем кто с обычным феном колдует). Зная по опыту пайки, что долго греть - только лишний раз напрягать и оборудование и объект пайки: поднимаю температуру фена. Сразу до 280*С (для многих припоев этого достаточно), но понятно что температура чипа будет ниже. Все же удалось зафиксировать значения превосходящие 135*С ... Весь процесс - буквально пара минут. Увеличиваем расстояние, не выключая фен, даем чипу плавно остыть. Для себя понимаем, что происходящие процессы едвали можно в полной мере назвать "пропайкой" - просто мы вызываем более высокотемпературные (чем в штатных условиях работы) термические деформации, результатом которых должно стать минимизация размера микротрещин и восстановления электрического соединения (ведь ток течет не только через паянные соединения), а значительно более низкие температуры при эксплуатации не должны обратить данные изменения-деформации и нарушить контакт вновь ... Как-то так.

Всё. Включаем (навскидку, без термопасты, на восьми болтах). Чудо / не чудо - но результат достигнут. Ok. Собираем уже по-полной с термопастой, равномерной укладкой термопрокладок на память и постепенной затяжкой болтов крест-накрест по кругу.

Титан снова в строю полтора года спустя! УРА!!!

Продолжаем эксплуатацию, но осторожно. Эх и что я раньше ... А что раньше? Встроенное программное управление не дает разогреться Титану выше 80*С - хоть ты его разгоняй, хоть напругу повышай, хоть ... Выше нагрузка - выше обороты пропеллера - а дальше снижение/ограничение роста частоты. Форсировать (фиксировать) производительность архитектуры киплер практически невозможно - да, если вручную поднять обороты вентилятора то можно отодвинуть тротлинг или дать возможность выйти на большие частоты, если мы также разрешим это: не более. Так что даже разогнанные видяхи, если не отпускать вверх температурный диапазон, себе больше навредить чем в стоке не смогут. А вот пропеллером шуметь - производитель видеокартам порой сильно не разрешает: как результат мой Титан все шесть лет работал почти бесшумно на общем фоне с почти константной под нагрузкой температурой 80*С.

Но штатные 80*С это видимо слишком много ... Слишком? Для кого? - или это просто такой элемент запланированного устаревания? Не иначе! И он сработал :-/

Учимся на своих ошибках, делаем выводы. С помощью утилит настройки ("MSI Afterburner" мне нравится больше чем родная моему Титану "EVGA Precision X") устанавливаем минимально возможную максимальную температуру работы - 60*С, потребляемую мощность (а правильнее сказать: ток) тоже ограничиваем 85%, и еще нужно задать и активировать "ручной режим" контроля скорости кулера. Если этого не сделать - видяха, снижая скорость при малейшем выходе за пределы установленной температуры, будет сильно проседать в производительности. Штатные профили, зашитые в ее биосе, не дают вращаться кулеру где-то выше 50%. Форсировать обороты кулера константой - тоже не оптимально с точки зрения шума не пропорционального нагрузке. Вобщем экспериментально установил, что обороты крыльчатки в 70-80% хоть и шумноваты, но являются максимально комфортными для восприятия (чтоб соседи не думали что у тебя часами работает пылесос). Задаем кривую, проходящую через 60*С приблизительно с данными процентами скорости.

Кстати, с разгоном, как и с охлаждением видеопамяти, заморачиваться не стоит ни разу. Ее производительности (пропускной способности) хватает заглаза - это явно не узкое место. Увеличение частоты например на 50MHz или даже на 100MHz (т.е. 3-6%) на общей производительности по тестам сказывается очень не существенно, субъективно не заметно вовсе (но и артефактов нет). Нагрев же микросхем видеопамяти зависит в первую очередь от температуры текстолита самой видеокарты, которую греет в основном главный чип, да и конструкторы видеокарты об охлаждении видеопамяти не позаботились ни разу! Микросхемы на тыльной (верхней в рабочем режиме) стороне просто открыты, на лицевой (нижней, где чип) - касаются системы охлаждения через термопрокладки, зачем? Но тут немного хитрО! Тепло рассеиваемое вверх здесь ограничивается горячим текстолитом платы во-первых, а во вторых естественный приток воздуха снизу ограничен массивным нагретым радиатором охлаждения центрального чипа (именно для его охлаждения вся эта нелегкая конструкция с турбинным пропеллером). Так вот, видеопамять снизу через термопрокладки отдает часть тепла вовсе не оребренному и обдуваемому радиатору, а легкосплавной рамке - чтоб хоть что-то тепло забирало с неё в замкнутом со всех сторон горячем пространстве.

На фотках ниже постарался показать, что массивный радиатор с ребрами касается и охлаждает только сам главный чип - крепится исключительно на четырех подпружиненых винтах по углам. Выполнен из алюминиевого сплава (блестящий, без покрытия).

Все остальные винты вкручиваются в "рамку", на которой держится только пластиковый декоративный кожух. Радиатор видеопроцессора его фактически не касается, обдув этой рамки также весьма символичен и не очевиден. Просто единая общая теплораспределительная штуковина из немагнитного, легкого и зернистого сплава (анодированное черное покрытие, видимо с невысокой теплоемкостью).

PS. Владельцам новых и исправных видях рекомендую снижать штатно-допустимую максимальную температуру чипа видеокарты для продления срока службы своему железу. Так например максималка в 70*С (вместо 80*С) совсем не намного провоцирует необходимость повышения оборотов пропеллера. Любителям же тишины остается только вариант ставить жидкостное охлаждение - секрет эффективности которого при низком уровне шума в том, что тепло рассеивается по значительно большей площади его радиатора и как правило несколькими вентиляторами, что делает позволительным крутить их медленно без ущерба эффективности.

PPS. GTX TITAN - герой данной статьи, принимал активное участие в её создании ;-))

MiGeRA (июнь 2022)

Заглавная » Железо компьютерное » Обзоры устройств » GeForce GTX TITAN