H200 став першим графічним процесором, який пропонує HBM3e — надшвидку пам’ять від південнокорейського чипмейкера SK hynix. Як йдеться в анонсі NVIDIA, з HBM3e H200 отримав 141 ГБ пам’яті зі швидкістю 4,8 терабайт на секунду. Це майже вдвічі більша ємність і в 2,4 рази більша пропускна здатність, ніж у NVIDIA A100. Така пам’ять дозволяє використовувати H200 для прискорення генеративного ШІ та великих мовних моделей.
«Для створення інтелекту за допомогою генеративних додатків ШІ та високопродуктивних обчислень (HPC), величезні обсяги даних повинні ефективно оброблятися на високій швидкості за допомогою великої та швидкої пам’яті графічного процесора. Завдяки NVIDIA H200 … вдалося розв’язати деякі з найважливіших світових проблем», — стверджує віце-президент NVIDIA Ян Бак.
В компанії наголошують, що представлена технологія «готова до використання в центрах обробки даних і суперкомп’ютерах — для роботи над такими завданнями, як прогнозування погоди та клімату, відкриття ліків, квантові обчислення тощо». Крім цього, в NVIDIA акцентують, що завдяки параметрам H200 можна розгортати в будь-якому центрі обробки даних, у тому числі хмарному.
Передбачається, що NVIDIA H200 буде доступний для світових виробників систем і постачальників хмарних послуг починаючи з другого кварталу 2024 року. Amazon Web Services, Google Cloud, Microsoft Azure та Oracle Cloud Infrastructure стануть одними з перших його власників.
Раніше NV Техно писав, що NVIDIA стала одним із головних бенефіціарів буму штучного інтелекту. Експерти очікували, що компанія продасть понад 500 тисяч нових відеокарт Н100 для ШІ цього року.
Читайте про це у новому номері NV, що можна придбати тут