GeForce GTX 1080
GeForce GTX 1080 – побудований на базі GPU GP104 – другого за старшинством чіпа у лінійці Pascal. P104 у порівнянні з P100 майже вдвічі менше за кількістю транзисторів та площі кристала. Якщо ж відштовхуватися від лінійки Maxwell, новий чіп займає проміжне положення між GM204, який NVIDIA використовує в GeForce GTX 970/980, і GM200 (GeForce GTX 980 Ti і GTX 980 TITAN X) як за «фізичними» параметрами кристала, так і кількості ядер CUDA та текстурних модулів. Конфігурація back-end'а GP104 безпомилково визначає його позицію як послідовника GM204, оскільки він також комплектується 256-бітною шиною пам'яті, розділеною між вісьмома контролерами, та 64 блоками ROP.
З точки зору компонування обчислювальних блоків GPU архітектура Pascal у реалізації GP104 точно слідує принципам, закладеним у Maxwell. Вся обчислювальна логіка зосереджена у структурах під назвою Graphics Processing Cluster (GPC) – їх чотири у цьому процесорі. Усередині GPC знаходиться п'ять Stream Multiprocessors, кожен із яких включає 128 ядер CUDA, 8 текстурних модулів та секцію кешу L1, яка збільшена з 24 до 48 Кбайт порівняно з Maxwell. Кожен GPC також включає єдиний Polymorph Engine (Raster Engine на діаграмі), що виконує початкові стадії рендерингу: визначення граней полігонів, проекція та відсікання невидимих пікселів.
Головне досягнення техпроцесу 16 нм тут виражається в тактових частотах, які виросли майже вдвічі відносно GeForce GTX 980: базова частота - 1607 МГц, Boost Clock - 1733 МГц (т.к. остання є усередненою частотою в типових додатках1080 вищих значень.
Розрахунки подвійної точності (FP64) процесор GP104 виконує на швидкості 1/32 від FP32 – у цьому він успадковує чіпам другого та наступного ешелонів сімейства Maxwell. Архітектура Pascal також може виконувати операції FP16 з подвоєною продуктивністю щодо FP32, у той час як Maxwell виконує їх на такій же швидкості. По енергоспоживання GeForce GTX 1080 відноситься до того ж класу, як і GeForce GTX 980 - 180 Вт. Спираючись на ці дані та заявлену продуктивність у TFLOPS для GTX 980 та GTX 1080, ми отримуємо приріст енергоефективності Pascal у 63% порівняно з Maxwell. Об'єм RAM складає 8 Гбайт типу GDDR5X - обсяг, який раніше був прерогативою відеокарт AMD на базі GPU Hawaii, що володіють 512-бітною шиною пам'яті.
Одна з ключових відмінностей між GDDR5X і GDDR5 полягає у можливості передачі чотирьох біт даних на одному циклі сигналу (QDR – Quad Data Rate) на противагу двом бітам (DDR – Double Data Rate), як це було у всіх попередніх модифікаціях пам'яті DDR SDRAM. Фізичні частоти ядер пам'яті та інтерфейсу передачі даних розташовуються приблизно в тому ж діапазоні, що у чіпів GDDR5.
Характеристики GeForce GeForce GTX 1080
|
||||||
чіп
|
||||||
частоти
|
||||||
Пам'ять
|
||||||
Інтерфейс та TDP
|
А щоб наситити даними зрослу пропускну здатність чіпів, в GDDR5X застосовується збільшена з 8n до 16n передвиборка даних (prefetch). При 32-бітному інтерфейсі окремого чіпа це означає, що контролер за один цикл доступу до пам'яті вибирає вже не 32, а 64 байти даних. У результаті результуюча пропускна здатність інтерфейсу досягає 10-14 Гбіт/с на контакт при частоті CK (command clock) 1250-1750 МГц – саме цю частоту показують утиліти для моніторингу та розгону відеокарт – такі, як GPU-Z. Принаймні зараз у стандарт закладено такі показники, але в майбутньому Micron планує досягти чисел аж до 16 Гбіт/с.
Наступна перевага GDDR5X полягає у збільшеному обсязі чіпа – з 8 до 16 Гбіт. GeForce GTX 1080 комплектується вісьмома чіпами по 8 Гбіт, але надалі виробники графічних карток зможуть подвоїти об'єм RAM у міру появи більш ємних мікросхем. Як і GDDR5, GDDR5X допускає використання двох чіпів на одному 32-бітному контролері в так званому clamshell mode, що в результаті дозволяє адресувати 32 Гбайт пам'яті на 256-бітній шині GP104.
Архітектура Maxwell вже має найбільш широку серед GPU на ринку підтримку нових функцій рендерингу в стандарті DirectX 12 (feature level 12_1). Pascal додає до цього арсеналу ще кілька опцій, які також мають потенціал для застосування у сфері VR. Async Compute – одна з можливостей DirectX 12, раніше властива тільки процесорами AMD на архітектурі GCN, дозволяє динамічно розподіляти ресурси GPU між графічним і обчислювальним навантаженням з тим, щоб ресурси, що звільнилися після завершення одного із завдань, можна було негайно кинути на завдання.
У той час як AMD у конфігураціях з кількох GPU перейшла на синхронізацію по шині PCI Express, NVIDIA, як і раніше, використовує в SLI окремий інтерфейс. Однак від публічної уваги вислизнув той факт, що при досить високих роздільних здібностях екрану екрану GPU NVIDIA також обмінюються частиною даних через PCI Express. Це говорить про те, що в такій формі, що була реалізована в попередніх архітектурах NVIDIA, SLI вже вичерпала ліміт своєї пропускної спроможності. Наскільки нам відомо, він становить 1 Гбайт/с, чого вже недостатньо для обміну кадрами у роздільній здатності екрану 3840х2160 із частотою 60 Гц.
Але замість того, щоб повністю перейти на PCI Express, Pascal переробили існуючий інтерфейс. Традиційно, відеокарта NVIDIA має два з'єднання SLI, які працюють одночасно для зв'язку GPU з його сусідами в потрійній або четверній конфігурації, але для передачі даних у двопроцесорній зв'язці використовується тільки один канал. Використовувати два канали в тандемі GPU – найочевидніший шлях збільшення продуктивності, і в Pascal відбулося саме це.
NVIDIA також випустила спеціальний місток, що існує в декількох версіях різної довжини, який має покращені фізичні характеристики для роботи інтерфейсу на підвищеній з попередніх 400 МГц до 650 МГц частоті.