Новости

Если Microsoft не может обеспечить достаточное количество электроэнергии для питания всех имеющихся у нее графических процессоров искусственного интеллекта, вы должны задаться вопросом, как Amazon собирается справиться со своей новой сделкой с OpenAI стоимостью 38 миллиардов долларов

Вы можете подумать, что крупнейшие компании, занимающиеся искусственным интеллектом, отчаянно нуждаются в смехотворном количестве графических процессоров для искусственного интеллекта, чтобы не останавливать развитие ИИ. Однако, по словам Microsoft, проблема заключается не в ограничении вычислительной мощности или аппаратного обеспечения, а в том, что для запуска всего этого недостаточно электроэнергии. И если это так, то возникает вопрос о том, как Amazon собирается справляться с ситуацией теперь, когда она подписала многолетнее соглашение с OpenAI на сумму 38 миллиардов долларов о предоставлении компании доступа к своим серверам.

Это был генеральный директор Microsoft Сатья Наделла, который высказал мнение о недостаточной мощности в 70-минутном интервью (через Tom’s Hardware) для YouTube-канала Bg2 Pod вместе с боссом OpenAI Сэмом Альтманом. Это произошло, когда ведущий интервью Брэд Герстнер упомянул, что Дженсон Хуан из Nvidia сказал, что вероятность «перенасыщения вычислениями» в ближайшие пару лет практически равна нулю (под этим он подразумевает избыток графических процессоров искусственного интеллекта).

«Самая большая проблема, с которой мы сейчас сталкиваемся, — это не переизбыток вычислений, а мощность», — ответила Наделла. «Это своего рода возможность выполнять сборку достаточно быстро, в режиме реального времени. Так что, если вы не можете этого сделать, возможно, у вас в инвентаре есть куча микросхем, которые я не могу подключить. На самом деле, это моя сегодняшняя проблема. Это не проблема с поставками чипсов; на самом деле, дело в том, что у меня нет разогреваемых оболочек для подключения».

Разогреваемые оболочки, о которых он говорит, — это не вкусные тако; это концентраторы, уже подключенные к соответствующему источнику питания и другим необходимым устройствам, готовые к использованию. чтобы быть загруженным множеством серверов искусственного интеллекта от Nvidia. По сути, Наделла говорит о том, что проблема не в том, чтобы заполучить графические процессоры, а в том, чтобы получить доступ к достаточно дешевому электричеству для их работы.

Это не обязательно означает, что просто не хватает электростанций — очень важно, где они находятся, потому что хотя можно просто снести здание практически в любом месте, если локальная сеть не справляется с огромными энергопотреблениями десятков тысяч графических процессоров Nvidia Hopper и Blackwell, то вообще нет смысла создавать оболочку.

Для работы полноценной серверной стойки Nvidia GB200s требуется мощность 120 кВт. (Фото предоставлено Nvidia)

Когда я услышал этот комментарий генерального директора Microsoft, я сразу вспомнил другую новость, которую прочитал сегодня: сделка OpenAI с Amazon стоимостью 38 миллиардов долларов, которая предоставит компании доступ к серверам искусственного интеллекта AWS. У OpenAI уже есть такое соглашение с Microsoft об использовании ее сервисов Azure, при этом последняя также вкладывает деньги в поддержку OpenAI.

«OpenAI немедленно начнет использовать AWS compute в рамках этого партнерства, при этом планируется, что все мощности будут развернуты до конца 2026 года, и возможность дальнейшего расширения в 2027 году и далее», — говорится в объявлении.

«Развертывание инфраструктуры, которую AWS разрабатывает для OpenAI, отличается сложным архитектурным дизайном, оптимизированным для обеспечения максимальной эффективности и быстродействия обработки данных с помощью искусственного интеллекта. Кластеризация графических процессоров NVIDIA — как GB200, так и gb300 — с помощью ультрасерверов Amazon EC2 в одной сети».

Означает ли это, что AWS фактически передает все свои графические процессоры Nvidia AI OpenAI в течение следующих нескольких лет, или компания расширит свою сеть AI за счет создания новых серверов? Это, конечно, не может быть первым, поскольку AWS предлагает свои собственные сервисы искусственного интеллекта, поэтому наиболее логичным объяснением является то, что Amazon собирается покупать больше графических процессоров и строить новые центры обработки данных.

Но если Microsoft не может использовать все графические процессоры искусственного интеллекта, которые у нее есть сейчас, то как же собирается ли Amazon это сделать? Исследования Национальной лаборатории Лоуренса Беркли показывают, что в течение трех лет общее потребление электроэнергии центрами обработки данных достигнет 580 трлн Втч. По данным Массачусетского технологического института, это привело бы к тому, что искусственный интеллект потреблял бы столько же электроэнергии, сколько 22% всех домохозяйств США в год.

(Изображение предоставлено: Джефф Фаско/Getty Images)

Чтобы удовлетворить этот огромный спрос, некоторые компании рассматривают возможность перезапуска старых атомных электростанций или, в случае Google, строительства множества новых. Хотя ожидается, что первая из них будет готова к 2028 году, в лучшем случае она будет вырабатывать всего 7,3 ТВтч электроэнергии в год, что составляет всего 1,3% от общего прогнозируемого спроса на электроэнергию. Очевидно, что это не будет эффективным долгосрочным решением энергетической проблемы ИИ.

С учетом того, что в ИИ сейчас инвестируется так много средств, он не исчезнет бесследно (хотя это решило бы вопрос обеспечения всего этого энергией), так что единственный способ дальнейший путь для Amazon, Google, Meta и Microsoft состоит в том, чтобы либо построить значительно больше электростанций, либо спроектировать и создать специализированные низкоэнергетические AI ASIC-системы (точно так же, как это произошло с майнингом биткоинов), либо, что более вероятно, и то, и другое.

В связи с этим возникает новый вопрос: откуда возьмутся деньги, необходимые на все это? Ответы на открытке, пожалуйста.


Другие статьи: