Нашли опечатку?

Выделите фрагмент и отправьте нажатием Ctrl+Enter.

© 2024, robots.2ua.org

Все права защищены

Arm бьет тревогу по поводу энергоемких чипов для ИИ; ссылается на стоимость процессора Neoverse

17.04.2024 | Фекла Дербинова

Генеральный директор Arm Рене Хаас (Rene Haas) в своем новом блоге дал резкую оценку потребностей в электроэнергии для рабочих нагрузок ИИ в центрах обработки данных по всему миру. Ожидается, что к 2030 году объем вычислений с использованием искусственного интеллекта вырастет в 3 раза, что превысит общий объем энергопотребления Индии, самой большой страны в мире.

«Будущие модели ИИ будут становиться все больше и умнее, что приведет к росту потребности в вычислениях, а это в свою очередь увеличит спрос на электроэнергию», - говорит Хаас. Поиск путей снижения требований к энергопотреблению для этих крупных центров обработки данных имеет первостепенное значение для достижения прорыва в обществе и реализации перспектив ИИ». Другими словами, нет электричества - нет ИИ».

Компания Arm создает архитектуры чипов, широко используемые производителями микросхем, и, естественно, ставит эти разработки в центр внимания в связи с необходимостью снижения энергопотребления. «Неудивительно, что крупнейшие в мире гипермасштабируемые ИИ-компании обратились к Arm для снижения энергопотребления», - добавил он, позиционируя новейший процессор Arm Neoverse как лучший по мощности и производительности как для выводов, так и для обучения ИИ.

По словам Хааса, центры обработки данных уже потребляют 460 тераватт-часов электроэнергии в год, что эквивалентно всей Германии. В типичной серверной стойке один только вычислительный чип потребляет более половины всей электроэнергии. «Каждый ватт на счету», - сказал он.

В качестве примеров возможностей Neoverse он назвал AWS Arm-based Graviton, Google Cloud Arm-based Axion, Microsoft Azure Arm-based Cobalt и Oracle Cloud Arm-based Ampere Altra Max. В примере Oracle Ampere на базе Arm помогла обеспечить в 2,5 раза большую производительность на стойку серверов при 2,8 меньшей мощности по сравнению с традиционными конкурентами при использовании для задач искусственного интеллекта, таких как обучающие маркеры LLM.

Arm предоставляет половину новой платформы Nvidia Grace Blackwell (GB200), состоящей из GPU Blackwell и CPU Grace на базе Arm, что позволяет снизить энергопотребление в 25 раз при 30-кратном увеличении производительности на GPU по сравнению с существующими GPU Nvidia H100, которые опираются на конкурирующие CPU Intel Xeon.

Хаас пришел к выводу, что внедрение Arm может помочь компаниям сэкономить до 15 % общей мощности центров обработки данных, что позволит увеличить производительность ИИ при той же мощности и «не усугублять проблему энергопотребления». По его словам, такая экономия энергии позволила бы выполнять на 2 миллиарда больше запросов ChatGPT, обеспечивать четверть ежедневного поискового трафика в Интернете или освещать 20 % американских домохозяйств.

Хотя блог Arm - это, по сути, реклама Neoverse, он указывает на общепризнанную проблему, когда центры обработки данных, пытающиеся запуститься или расшириться, сталкиваются с проблемами получения электроэнергии в разных местах. К ним относятся такие районы США, как округ Лаудон, штат Вирджиния, часть штата Джорджия, Техас, Орегон и другие. Амстердам ограничил рост дата-центров из-за проблем с электроснабжением, а недавно эта проблема возникла в Дублине, Ирландия.

Международное энергетическое агентство недавно сообщило, что 2700 центров обработки данных в США потребляли более 4 % всей электроэнергии в стране в 2022 году, а в 2026 году прогнозируется, что они будут потреблять 6 %.

По данным McKinsey, в 2002 году потребность центров обработки данных в США составляла почти 17 гигаватт, а в 2026 году, по прогнозам, достигнет 25 гигаватт. Для выработки одного гигаватта энергии требуется большая атомная станция.

GF получит 1,5 млрд долларов по закону CHIPS на строительство новой фабрики в Нью-Йорке и модернизацию двух фабрик

Компания GlobalFoundries получила предварительный грант в размере 1,5 млрд. долл. и 1,6 млрд. долл. в виде займов в рамках закона CHIPS, объявили в понедельник официальные лица США. Полученные средства будут распределены между новым 300-мм заводом в Мальте, штат Не | GF имеет связи с США как поставщик оборонной и аэрокосмической продукции.

Qualcomm сообщает о росте доходов и оптимистичном прогнозе относительно потенциала искусственного интеллекта

Qualcomm, похоже, стала последней компанией, получившей толчок к развитию благодаря волнению по поводу искусственного интеллекта. | Qualcomm видит потенциал внедрения искусственного интеллекта во многие конечные устройства, что, как ожидается, приведет к увеличению доходов разработчика чипов.

SensiML открывает исходный код Analytics Studio для TinyML-кода для приложений для IoT-датчиков

Компания SensiML (рифмуется с «sensible»), дочерняя компания QuickLogic, недавно выступила с амбициозной инициативой: предложить дизайнерам полный открытый доступ к своим автоматизированным системам машинного обучения | Компания планирует показать на выставке Sensors Converge концепт умной дрели, которая использует искусственный интеллект для отключения двигателя вместо механического сцепления.

AMD, Intel и другие предлагают UALink для подключения и масштабирования чипов искусственного интеллекта

Ожидается, что в ближайшие годы чипы ускорителей искусственного интеллекта заполонят центры обработки данных, и они будут наиболее мощными и полезными, если их соединить вместе для увеличения масштаба и вычислительной мощности. | AMD, Intel, Broadcom и другие компании надеются, что UALink станет отраслевым стандартом для подключения и масштабирования ускорителей ИИ в серверах центров обработки данных.

Использование IoT-управления автопарком нового поколения для устранения узких мест в логистике

Если вы спросите участников логистической деятельности об их намерении освоить передовые технологии, вы, скорее всего, получите положительную реакцию, но в основном только тогда, когда речь идет об устранении неполадок. | Автор предлагает менеджерам по логистике создать гибридное облако для управления данными, включающее локальные центры обработки данных, частное и публичное облако.

Red Hat интегрирует NIMs Nvidia в OpenShift AI

Red Hat углубляет свое партнерство с Nvidia в области ИИ, объявив на этой неделе на Red Hat Summit 2024 в Денвере, что работает над интеграцией микросервисов NIM AI inference от Nvidia в Red Hat | Углубление партнерства между Red Hat и Nvidia поможет организациям справиться с растущим разнообразием моделей ИИ.