22 March

Большой момент искусственного интеллекта NVIDIA уже здесь

Большой момент искусственного интеллекта NVIDIA уже здесь Когда основатель и генеральный директор NVIDIA Дженсен Хуанг в прошлом поэтически восхвалял искусственный интеллект, это больше походило на маркетинговую болтовню — своего рода возвышенную риторику, которую мы привыкли ожидать от руководителя с бесконечным запасом кожаных курток. Но в этом году, после ажиотажа вокруг ChatGPT от OpenAI, обновленного Bing от Microsoft и множества других конкурентов, усилия NVIDIA в области искусственного интеллекта, похоже, наконец-то ушли вперед.

«Мы подошли к моменту iPhone для ИИ», — сказал Хуанг сегодня утром во время своего выступления на GTC. Он сразу же указал на роль NVIDIA в начале этой волны искусственного интеллекта: в 2016 году он лично представил суперкомпьютер DGX AI для OpenAI, аппаратное обеспечение, которое в конечном итоге использовалось для создания ChatGPT. Мы видели, как системы DGX развивались на протяжении многих лет, но они оставались недоступными для многих компаний (DGX A100 был продан за 200 000 долларов в 2020 году, что вдвое дешевле его предшественника!). Так что насчет всех остальных?

Вот тут-то и появляется новое облако DGX от NVIDIA — (очевидно) онлайн-способ задействовать мощь своих суперкомпьютеров с искусственным интеллектом. Начиная всего с 36 999 долларов в месяц за один узел, он должен стать более гибким способом для компаний расширить свои потребности в ИИ. DGX Cloud также может работать вместе с локальными устройствами DGX, поскольку все они управляются программным обеспечением NVIDIA Base Command.

NVIDIA заявляет, что каждый экземпляр DGX Cloud оснащен восемью системами H100 или A100 с 60 ГБ видеопамяти, в результате чего общий объем памяти на узле достигает 640 ГБ. Как и следовало ожидать, имеется высокопроизводительное хранилище, а также коммутационная сеть с малой задержкой, которая соединяет системы вместе. Такой объем мощности может сделать облачное решение более привлекательным для существующих клиентов DGX — зачем тратить еще 200 000 долларов на коробку, когда вы можете сделать гораздо больше за меньшую ежемесячную плату? Сначала DGX Cloud будет работать на базе облачной инфраструктуры Oracle, но NVIDIA заявляет, что в следующем квартале она расширится до Microsoft Azure, а также «в ближайшее время» до Google Cloud и других поставщиков.

Итак, что вы должны делать со всеми этими умными способностями ИИ? NVIDIA также представила AI Foundations, более простой способ для компаний разрабатывать свои собственные модели больших языков (похожие на ChatGPT) и генеративный ИИ. Крупные компании, такие как Adobe, Getty Images и Shutterstock, уже используют его для создания собственных LLM. Он также напрямую связан с DGX Cloud с NeMo, сервисом, специально ориентированным на язык, а также с NVIDIA Picasso, сервисом изображений, видео и 3D.

Наряду с DGX Cloud NVIDIA продемонстрировала четыре новые платформы логического вывода для решения задач ИИ, включая NVIDIA L4, которая предлагает «в 120 раз большую производительность видео на основе ИИ, чем процессоры, в сочетании с более высокой энергоэффективностью на 99%», по данным компании. L4 также можно использовать для работы, такой как потоковое видео, кодирование и декодирование, а также для создания AI-видео. Есть также NVIDIA L40, предназначенная для генерации 2D- и 3D-изображений, а также NVIDIA H100 NVL, решение LLM с 94 ГБ памяти и ускоренным Transformer Engine. (По данным NVIDIA, это помогает обеспечить в 12 раз более высокую производительность логического вывода GPT3 по сравнению с A100.)

Наконец, есть NVIDIA Grace Hopper для моделей рекомендаций, платформа логического вывода, которая делает именно то, что заявлено в ее названии. И помимо того, что он создан для рекомендаций, он также может работать с графическими нейронными сетями и векторными базами данных.

Если вам интересно увидеть NVIDIA L4 в действии, сегодня она будет доступна для предварительного просмотра на компьютерах Google Cloud G2. Google и NVIDIA также объявили, что генеративный ИИ-видеоинструмент Descript, а также художественное приложение WOMBO уже используют L4 в Google Cloud.