Архітектура NVIDIA Hopper виявилася дуже вдалою для AI/ML — попит на акселератори H100 випереджає пропозицію
2024-06-03
Бум попиту на рішення ШІ, що ми його спостерігаємо нині, став можливим завдяки доступності відповідної апаратної бази. Ключову роль тут відіграли нові GPU акселератори. Особливо продуктивною виявилися рішення з тензорними ядрами (TPU) на базі нової архітектури NVIDIA Hopper, зокрема модель Н100 стала справжнім бестселером.
Довгий час масовий розвиток технологій штучного інтелекту і машинного навчання стримувався відсутністю відповідної апаратної бази — доступні рішення були недостатньо продуктивними, занадто дорогими або дуже складними у використанні. Все змінилося нещодавно — з появою на масовому ринку графічних прискорювачів з тензорними ядрами (Tensor Processing Unit, TPU). Особливо продуктивними виявилися рішення на базі мікроархітектур NVIDIA Ampere та Hopper (з’явилася у 2022 році). В результаті моделі прискорювачів для датацентрів А100 і особливо Н100 миттєво стали справжнім стандартом галузі.
Нещодавно надійшла новина, що акселератори на базі мікроархітектури NVIDIA Hopper потрапили на вершину світу високопродуктивних обчислень — новий рейтинг найпотужніших суперкомп'ютерів, TOP 500, опублікований в середині травня 2024 року, цього разу містить одразу сім систем, які використовують прискорювачі зі згаданою архітектурою. Найпотужніша з них – суперкомп'ютер Alps у Швейцарії, що посів шосте місце у списку. До того ж перші три позиції паралельного рейтингу найенергоефективніших суперкомп'ютерів, Green 500, теж взяли системи на базі Hopper. Зазначимо, що в усіх випадках результат забезпечили спеціальні високопродуктивні модулі Grace Hopper, що поєднують у собі фірмові процесори та прискорювачі NVIDIA, але в основі лежить та ж мікроархітектура Hopper, що і в рішеннях для широкого ринку.
Далі більше — німецький суперкомп'ютерний центр у місті Юліх (JSC) має намір закупити 24 тис. модулів NVIDIA GH200 Grace Hopper для нового європейського суперкомп'ютера Jupiter. А в науковому центрі AI Bridging Cloud Infrastructure (BCI), що належить Національному інституту передових промислових наук і технологій Японії (AIST), продовжується створення суперкомп'ютера ABCI-Q у складі якого буде використано понад 2 тис. прискорювачів NVIDIA H100 з тензорними ядрами.
Нагадаємо також, що торік компанія Tesla запустила свій новий суперкомп'ютер, у складі якого працює 10 тис. акселераторів H100. Усього ж, за даними NVIDIA, щомісячний попит на цю модель суттєво перевищує 100 тис. одиниць, проте за оцінками аналітиків, компанія може виробляти лише близько 1,2 млн таких прискорювачів на рік. Відповідно, формується дефіцит, що має тенденцію до зростання. Однак, замовники готові чекати місяцями та суттєво переплачувати, аби отримати омріяні картки у своє розпорядження.
Торік компанія Tesla створила новий суперкомп'ютер, для якого було закуплено 10 тис. прискорювачів NVIDIA H100 на базі мікроархітектури Hopper.
Але є кращий варіант. Якщо ви не гігант індустрії на зразок Tesla й не суперкомп'ютерний центр, отримати достатні обчислювальні ресурси на базі акселераторів NVIDIA H100 можна з хмари — завдяки сервісам типу GPU Cloud.
Таку можливість пропонує наша компанія. Всі необхідні ресурси для ваших завдань AI/ML вже доступні на базі колективної або приватної хмари De Novo. Також ви можете отримати у своє розпорядження повноцінне ML-оточення для інженерів DevOps, завдяки PaaS-сервісу De Novo ML Cloud.