Энергоэффективность ИИ — это критически важно
Подлинные инновации в области искусственного интеллекта должны быть связаны прежде всего с более устойчивыми способами его энергоснабжения — особенно в тех регионах, где «жаждущие» технологии вроде ИИ уже перегружают электросети.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ сегодня повсюду: он проектирует новые белки, отвечает на интернет-запросы, а порой, кажется, вот-вот начнёт управлять барбекю. Инвесторы им очарованы — как, впрочем, и президент США. Сразу после вступления в должность Дональд Трамп заявил о своей поддержке Stargate — компании стоимостью до 500 миллиардов долларов, финансируемой крупнейшими игроками отрасли и призванной ускорить развитие ИИ в Соединённых Штатах.
Однако дата-центры и прочая инфраструктура, необходимая для создания и работы этой технологии, — настоящие пожиратели электроэнергии. А с учётом провозглашённого Трампом «национального энергетического чрезвычайного положения» — по сути, неприкрытой попытки нарастить добычу ископаемого топлива — энергетические аппетиты ИИ грозят ещё сильнее усугубить климатический кризис. Уже сейчас эта технология ответственна за колоссальные выбросы парниковых газов, вызывающих изменение климата. Если Stargate и множество других компаний, развивающих ИИ-платформы, не будут настаивать на более чистых и эффективных источниках энергии, они лишь поспособствуют разрушению нашей планеты.
У ИИ много обличий, включая модный генеративный ИИ — основу ChatGPT. В процессе работы генеративный ИИ буквально «пьёт» электричество в два этапа, требуя дата-центров размером со склад для размещения вычислительных мощностей.
Сначала разработчики обучают модель на гигантских массивах данных — процесс, занимающий бесчисленные часы и требующий огромных вычислительных ресурсов. Обучение одного из предшественников ChatGPT потребовало столько электроэнергии, сколько хватило бы на питание 120 средних американских домов в течение года. И каждый раз, когда модель обновляется, её приходится обучать заново. Неожиданный выход китайского чат-бота DeepSeek, который, по сообщениям, был обучен за долю стоимости ChatGPT и аналогичных американских систем, может означать переход к менее энергоёмким процессам — но делать выводы пока рано.
И на этом спрос не заканчивается. Каждый запрос к ИИ заставляет его учитывать всё, чему он был обучен, а затем синтезировать ответ «с нуля» — в процессе, называемом инференсом, который тоже требует энергии. По сравнению с обычными поисковыми системами, текстогенерирующие модели могут тратить в десять раз больше энергии на один запрос пользователя, а иногда — в десятки раз больше. Генерация изображений ещё прожорливее: по данным одного исследования, на создание картинки уходит до 50 процентов энергии, необходимой для полной зарядки смартфона.
Многие аналитики рассматривают энергопотребление ИИ — как на этапе обучения, так и при масштабной эксплуатации — лишь как дополнительную статью расходов для владельцев системы. Так, по одной оценке, если Google начнёт использовать генеративный ИИ для создания ответов объёмом 50 слов хотя бы на половину поступающих запросов, это обойдётся компании примерно в 6 миллиардов долларов.
Но правда в том, что платить придётся всем нам — когда из-за этого колоссального потребления энергии вырастет цена киловатт-часа, независимо от того, пользуемся ли мы ИИ лично. Масштаб потребления слишком велик, и по мере того как ИИ незаметно проникает во всё новые сферы повседневной жизни, его энергозатраты, как ожидается, будут стремительно расти. В масштабах отрасли трудно отделить вклад ИИ от других вычислительных потребностей, но дата-центры служат удобным индикатором — тем более что бум ИИ напрямую привёл к их бурному росту.
Цифры поражают. В середине 2010-х годов дата-центры в США потребляли около 60 тераватт-часов в год. (Один тераватт-час — это миллиард киловатт-часов, единица измерения, используемая для учёта электроэнергии в большинстве американских домов.) К 2023 году, согласно недавнему отчёту Национальной лаборатории Лоуренса в Беркли, это число почти утроилось и достигло 176 тераватт-часов; к 2028 году спрос, как ожидается, вырастет до 325–580 тераватт-часов. При таком уровне энергопотребление дата-центров может составить от 6 до 12 процентов общего потребления энергии в США — по сравнению с 4 процентами в 2023 году.
И даже при том, что коммерческий спрос на энергию продолжает расти, люди уже сталкиваются с повышением тарифов на электроэнергию для домохозяйств.
На фоне этого стремительного роста спроса работы по декарбонизации энергетики продвигаются слишком медленно — как в США, так и в мире в целом. Изменение климата уже разворачивается у нас на глазах, усиливая катастрофы — от пожаров в Лос-Анджелесе до урагана Хелен и экстремальной жары — и вызывая удивительные и долгосрочные последствия. Снижение ущерба от климатического кризиса требует как можно более быстрого отказа от ископаемого топлива. Резкий и масштабный спрос со стороны любой отрасли лишь усложняет эту задачу.
Конечно, крупные технологические компании могли бы предложить значительные ресурсы для поддержки энергетического перехода. Ожидается, что инвестиции Stargate будут частично опираться на солнечную энергетику. Перед уходом с поста президент Джо Байден открыл государственные земли для размещения дата-центров, работающих на чистой энергии, чтобы стимулировать её использование в вычислениях.
Но поскольку выработка солнечной, ветровой и гидроэнергии зависит от погоды и других факторов, для вечно жаждущих ИИ-компаний особенно привлекательной выглядит атомная энергетика — что вызывает опасения по поводу загрязнения ядерными отходами. Самый заметный пример — сделка Microsoft по перезапуску печально известной атомной электростанции Three Mile Island, где произошла крупнейшая ядерная авария в истории США. Тем временем глава OpenAI Сэм Альтман активно поддерживает, среди прочего, ядерный синтез — технологию, которая вряд ли сможет обеспечить значимые объёмы энергии раньше 2050 года.
Даже если компании, развивающие ИИ, будут в основном опираться на чистые источники энергии и не усугубят климатический кризис напрямую, ненасытная потребность этой технологии в электричестве остаётся тревожной. И улучшения эффективности, при всей их важности, могут оказаться недостаточными. Так называемый парадокс Джевонса — идея о том, что удешевление или повышение эффективности использования ресурса может привести не к сокращению, а к росту его потребления, — вполне может сыграть свою роль. Более широкие дороги привлекают больше автомобилей, а интернет породил бесконечный думскроллинг — занятие, пожирающее время и энергию.
Пока технологические компании продвигают ИИ, нам следует подталкивать их не к мелким улучшениям эффективности, а к крупным прорывам, способным удержать энергетический след США в разумных пределах. Иначе нас может ждать ИИ-управляемое барбекю, которое поджарит весь мир.
Источник: журнал Scientific American № 332, 2025.

Оставить комментарий