Microsoft заявляет, что будет использовать новые чипы серии AMD Instinct MI300 для веб-сервисов Azure
В стремлении предложить новые и улучшенные генеративные услуги искусственного интеллекта технологическим компаниям нужны новые процессоры, которые помогут обеспечить питание растущего числа серверов, необходимых для реализации этих функций. NVIDIA, без сомнения, была лидером в поставке таких процессоров этим компаниям, включая Microsoft, и в результате заработала кучу денег.
Сегодня один из крупнейших конкурентов NVIDIA, компания AMD, объявила о своих планах предложить новейшую версию собственных генеративных чипов искусственного интеллекта, представив серию AMD Instinct MI300. Microsoft была среди компаний, заявивших, что будет использовать версии новых чипов AMD для своих услуг. В частности, Microsoft заявила, что будет использовать AMD Instinct MI300X на своих серверах виртуальных машин Azure ND MI300x v5.
AMD заявила, что новый Instinct MI300X использует архитектуру CDNA 3. Он сравнил его производительность с производительностью графических процессоров NVIDIA H100, которые используются во многих компаниях для служб искусственного интеллекта, включая Microsoft:
По сравнению с Nvidia H100 HGX, платформа AMD Instinct может предложить увеличение пропускной способности до 1,6 раз при выполнении вывода на LLM, таких как BLOOM 176B4, и является единственным вариантом на рынке, способным выполнять вывод для модели с параметрами 70B, такой как Llama2. на одном ускорителе MI300X; упрощение развертывания LLM корпоративного класса и обеспечение превосходной совокупной стоимости владения.
AMD добавила, что Meta и Oracle будут среди компаний, которые будут использовать чипы Instinct MI300X для своих собственных сервисов генеративного искусственного интеллекта.
Это лишь последний пример нового стремления удовлетворить огромный спрос на графические процессоры на базе искусственного интеллекта. Действительно, несколько недель назад Microsoft объявила на Ignite 2023, что создаст собственный чип искусственного интеллекта — Azure Maia AI Accelerator. Он будет использоваться для поддержки служб Microsoft Copilot и Azure OpenAI где-то в начале 2024 года.