Продукты
De Novo
Партнерство
Блог
Контакты
Меню
Продукты
Продукты
Kubernetes as a Service
Частное облако
Публичное облако
Хранение данных
De Novo
De Novo
Аттестаты и сертификаты
Аттестаты и сертификаты
Сертификаты De Novo
Операционные процессы и информационная безопасность De Novo подтверждены международной и государственной сертификацией и соответствуют требованиям корпоративного бизнеса
Работа в De Novo
Партнерство
Контакты
Главная Блог компании De Novo Так, все-таки сколько? Посчитана цена вопроса к AI
Так, все-таки сколько? Посчитана цена вопроса к AI

Так, все-таки сколько? Посчитана цена вопроса к AI

2025-10-30

Многие, наверное, читали «страшилки» о расходах AI-ЦОДа: гигаваты энергии, тонны углерода, «реки» воды. Заявления о миллионах $ на обучение моделей уже превратились в общее место. Однако настоящие расходы начинаются позже, когда модель начинает обслуживать миллиарды запросов в день.

Именно здесь и скрыт реальный аппетит искусственного интеллекта. Это не спринтерский рывок, а нескончаемый марафон инференса (процесса выдачи ответов). Именно здесь картина потребления ресурсов начинает быстро меняться. Цифры по одному запросу — скудные, но умноженные на миллиарды обращений, они приобретают совсем другой масштаб и влияние.

Запрос — как девять секунд просмотра ТВ

Google впервые решился заглянуть внутрь своей инфраструктуры и показать цену простого вопроса к модели Gemini. В среднем это 0,24 Вт·ч энергии. Чтобы представить: телевизор мощностью 100 Вт потребит столько же за 9 секунд работы. Углеродный след — 0,03 г CO₂. Вода — 0,26 мл. Пять капель на ладони.

Дело не только в цифрах, а в том, как они считались. Google применил так называемый «полный стек» (full-stack measurement) — подход, при котором учитывается всё. Не только работа ускорителей (GPU и TPU), но и нагрузка на центральные процессоры, оперативную память, потери при трансформации энергии, системы охлаждения и даже «резервная ёмкость» (idle capacity) — это мощности, которые держатся включёнными ради надёжности, хотя прямо сейчас не работают. Если смотреть по старой привычке только на ускорители, картина почти в 2,5 раза «красивее»: 0,10 Вт·ч и 0,01 г CO₂ на запрос. Но это как измерять расход бензина только по трассе и забывать про пробки и холостой ход. В реальности счёт выглядит иначе, и Google решил показать именно его.

inference resource consumption

На один запрос цифры выглядят смешно. Но умножьте их на миллиарды — и получаются уже сотни мегаватт-часов энергии ежедневно, сотни тысяч литров воды и десятки тонн CO₂. Вот и выходит, что ИИ в масштабе работает на уровне энергосистемы большого города. Это и есть эффект, который описал ещё в XIX веке экономист Уильям Джевонс: когда технологии становятся эффективнее, их потребление растёт, а не падает. Чем дешевле обходится один ответ от модели, тем больше запросов мы делаем. Gemini встроен в поиск, офисные сервисы, Android. Пользователи щёлкают кнопки, пробуют «а напиши ещё…», «а сгенерируй картинку…» без оглядки. И каждый раз счётчик ресурсов делает крошечный, но реальный шаг.

Расход воды — новый KPI

У Google получилось показать аккуратные цифры не потому, что их ИИ «ест меньше», а потому что компания десятилетиями шлифовала три вещи: 

Методологию. Они меряют не в лаборатории, а прямо в боевых сервисах: Google Search, Gmail, Gemini. Это «расход топлива в городе», а не красивый «паспортный цикл».

Архитектурную оптимизацию. Модели Gemini заточены под массовые нагрузки. Запросы собираются в пакеты (батчинг), маршрутизация распределяет их между ускорителями так, чтобы железо не простаивало. В корпоративных дата-центрах GPU нередко работают в полсилы, а у Google они нагружены максимально и почти круглосуточно.

Инфраструктуру. Средний показатель PUE у дата-центров компании — 1,09. Это значит: на каждые 100 Вт, ушедшие на вычисления, всего 9 Вт тратится на охлаждение и прочие сервисы. Для сравнения: средний  PUE по отрасли WJL — 1,3–1,4. 

И, наконец, динамика. За последний год показатели энергопотребления и углеродного следа в расчете на один запрос снизились в десятки раз. Обычно такие улучшения в индустрии требуют нескольких лет (а то и десятилетий), здесь же — результат всего за 12 месяцев, благодаря системной работе инженеров.

Да, и еще один важный момент. Про электричество говорят много, про углерод пишут в отчётах, а вода уходит тихо. Но цифры есть: 0,26 мл на запрос. Вроде бы незаметно. Но в масштабе дата-центров это уже миллионы литров в месяц. Вода расходуется на охлаждение. В регионах с жарким климатом на 1 кВт·ч уходит значительно больше воды, чем, скажем в северной Европе. Google признаёт: это вызов. Компания инвестирует в замкнутые системы, переносит нагрузки в регионы с низким «водным стрессом». Это новый KPI, который придётся учитывать бизнесу. Недостаточно сказать: «мы зелёные и на возобновляемой энергии». Если ваш ИИ гоняет миллиарды запросов в пустынном регионе и тратит кубометры воды, инвесторы и клиенты это, возможно не оценят (когда узнают, конечно).

GPT-5: новый масштаб аппетита

Теперь о еще одном характерном примере. В августе 2025 года OpenAI запустила GPT-5 — модель, которую называют «искусственным интеллектом уровня PhD». Она умеет создавать сайты на ходу, решать сложные задачи, генерировать глубокие тексты, видео, изображения. Но вместе с этим встал вопрос: сколько стоит один такой ответ в киловатт-часах и литрах воды? Ответа от компании нет. OpenAI не публикует официальных данных по энергопотреблению с 2020 г., когда показали параметры GPT-3. С тех пор — тишина. Летом 2023 года Сэм Альтман вскользь упомянул цифру 0,34 Вт·ч на запрос и 0,32 мл воды — но без конкретики, к какой версии это относится. Для профессионального сообщества такие числа — пустой звук.

Но независимые исследователи молчать не стали. Лаборатория Университета Род-Айленда провела собственные замеры. Их результаты: средний ответ GPT-5 на 1000 токенов стоит около 18 Вт·ч, а в пиковых случаях — до 40 Вт·ч. Для сравнения: 18 Вт·ч — это лампочка накаливания горит 18 минут. А теперь возьмём 2,5 млрд запросов в день, которые обслуживает ChatGPT. Получаем суточное потребление энергии на уровне 1,5 млн средних домохозяйств США. Фактически, целый мегаполис.

Почему GPT-5 потребляет больше? Во-первых, размер. GPT-4 оценивали примерно в 10 раз больше GPT-3. GPT-5 — ещё массивнее. Логика простая: больше нейронов — больше матриц — больше вычислений. Во-вторых, режим. GPT-5 — это «reasoning-модель» (модель рассуждений). Она не просто выдаёт ответ, а сначала многократно прокручивает внутренние шаги, чтобы найти решение. Такой «длинный внутренний монолог» ведет к росту энергопотребления в 5, а то и в 10 раз.

В-третьих, мультимодальность. GPT-5 умеет работать не только с текстом, но и с изображениями, видео, звуком. Это значит — новые вычислительные блоки, новые межчиповые обмены, новые киловатты. Каждое изображение или ролик стоит дороже, чем текст, и счётчик ресурсов растёт ещё быстрее. Да, архитектура mixture-of-experts (смесь экспертов) экономит энергию: модель активирует не все параметры сразу, а только нужные. Да, новое «железо» эффективнее. Но общий размер модели всё равно перевешивает эти выигрыши.

Потребляй ответственно

Самая серьёзная проблема — даже не сама прожорливость, а отсутствие прозрачности. Google показал всё: от PUE до «капель воды». OpenAI же предпочитает молчать: с 2020 года компания не публиковала официальных данных об энергопотреблении. Поэтому независимым исследователям пришлось строить собственные модели — они умножали время отклика на оценочную мощность чипов и публиковали результаты. 

Их вывод: GPT-5 энергозатратнее GPT-3/4 и входит в число самых «тяжёлых» систем нового поколения, сопоставимых с reasoning-моделями вроде o3 и китайской DeepSeek R1. Для отрасли это серьёзный вызов. Корпорации привыкли к отчётам ESG (Environmental, Social, Governance — экологическая, социальная и управленческая ответственность). Теперь инвесторы будут ждать честных цифр и от ИИ-провайдеров. Без этого разговор о «зелёном ИИ» останется пустыми словами.

Для компаний ситуация уже не абстрактная. Каждый контракт на облачный ИИ превращается в часть ESG-стратегии. И если раньше CIO смотрели только на SLA, то теперь придётся добавлять ещё один параметр: киловатт-часы и литры на тысячу токенов. Google с его «полным стеком» даёт удобную матрицу. Её можно включать прямо в RFP (Request for Proposal — запрос предложений к поставщику): укажите энергию, воду, углерод, PUE, резервы.

Дальше возникает инженерная математика. Где включать reasoning, а где обойтись коротким ответом? Какие процессы стоит оптимизировать батчингом? Что кэшировать, чтобы не расходовать лишнюю энергию? И главное — куда переносить нагрузки: в Скандинавию, где зелёной энергии избыток, или в жаркие регионы, где много солнца, но каждый литр воды на вес золота? Подобные решения становятся стратегическими.

Google формулирует цель четко: круглосуточная работа на 100% безуглеродной генерации. Не просто «купить зелёный сертификат», а реально синхронизировать нагрузки с ветром и солнцем. В Скандинавии, скажем, это проще, в Калифорнии — сложнее. Значит, нужны хранилища энергии, умная оркестрация, перенос части задач между дата-центрами. 

Для ИИ это особенно чувствительно. Текстовые ответы можно «распределять» по кластерам, а вот мультимодальные пайплайны с видео или reasoning-режимом требуют тонкой настройки. И здесь 24/7 безуглеродная (carbon-free) энергия становится фактически новым SLA. В ином случае, цифровая революция может превратится в экологическую катастрофу.

© 2008—2026 De Novo (ТОВ «Де Ново»)