Продукти
De Novo
Партнерство
Блог
Контакти
Меню
Продукти
Продукти
Kubernetes as a Service
Приватна хмара
Зберігання даних
Зберігання даних
De Novo
De Novo
Атестати та сертифікати
Атестати та сертифікати
Сертифікати De Novo
Операційні процеси та інформаційна безпека De Novo підтверджені міжнародною та державною сертифікацією й відповідають вимогам корпоративного бізнесу
Робота в De Novo
Партнерство
Контакти
Головна Блог компанії De Novo Так, все ж таки скільки? Пораховано ціну запитання до AI
Так, все ж таки скільки? Пораховано ціну запитання до AI

Так, все ж таки скільки? Пораховано ціну запитання до AI

2025-10-30

Багато хто, напевно, читав «страшилки» про витрати AI-ЦОД: гігавати енергії, тонни вуглецю, «річки» води. Заяви про мільйони $ на навчання моделей уже перетворилися на загальне місце. Проте справжні витрати починаються пізніше, коли модель  починає обслуговувати мільярди запитів щодня.

Саме тут й прихований реальний апетит штучного інтелекту. Це не спринтерський ривок, а нескінченний марафон інференсу (процесу видачі відповідей), отже картина споживання ресурсів починає швидко змінюватися. Цифри на один запит — мізерні, але помножені на мільярди звернень, вони набувають зовсім іншого масштабу та впливу.

Запит — як дев’ять секунд перегляду ТВ

Google уперше наважився зазирнути всередину своєї інфраструктури та показати ціну простого питання до моделі Gemini. У середньому це 0,24 Вт·год енергії. Щоб уявити: телевізор потужністю 100 Вт споживе стільки ж за 9 секунд роботи. Вуглецевий слід — 0,03 г CO₂. Вода — 0,26 мл. П’ять крапель на долоні.

Річ не лише у цифрах, а й у тому, як їх рахували. Google застосував так званий «повний стек» (full-stack measurement) — підхід, за якого враховується все. Не тільки робота прискорювачів (GPU і TPU), а й навантаження на центральні процесори, оперативну пам’ять, втрати під час трансформації енергії, системи охолодження та навіть «резервна ємність» (idle capacity) — це потужності, які тримаються увімкненими заради надійності, хоча прямо зараз не працюють. Якщо дивитися за старою звичкою лише на прискорювачі, картина майже у 2,5 раза «красивіша»: 0,10 Вт·год та 0,01 г CO₂ на запит. Але це як вимірювати витрати пального тільки по трасі й забувати про затори та холостий хід. У реальності рахунок виглядає інакше, тому Google вирішив показати саме його.

inference resource consumption

На один запит цифри виглядають смішно. Але помножте їх на мільярди — і виходять уже сотні мегават-годин енергії щодня, сотні тисяч літрів води та десятки тонн CO₂. От і виходить, що ШІ у масштабах працює на рівні енергосистеми великого міста. Це й є ефект, який описав ще у XIX столітті економіст Вільям Джевонс: коли технології стають ефективнішими, їхнє споживання зростає, а не падає. Чим дешевше обходиться одна відповідь від моделі, тим більше запитів ми робимо. Gemini інтегрований у пошук, офісні сервіси, Android. Користувачі натискають кнопки, пробують «а напиши ще…», «а згенеруй картинку…» без жодних обмежень. Й кожного разу лічильник ресурсів робить маленький, але реальний крок.

Витрата води — новий KPI

Google зміг показати акуратні цифри не тому, що їхній ШІ «споживає менше», а тому що компанія десятиліттями відточувала три речі:

Методологію. Вони міряють не у лабораторії, а прямо у бойових сервісах: Google Search, Gmail, Gemini. Це «витрата пального у місті», а не красивий «паспортний цикл».

Архітектурну оптимізацію. Моделі Gemini налаштовані під масові навантаження. Запити збираються у пакети (батчинг), маршрутизація розподіляє їх між прискорювачами так, щоб залізо не простоювало. У корпоративних дата-центрах GPU нерідко працюють у півсили, а у Google вони завантажені максимально та майже цілодобово.

Інфраструктуру. Середній показник PUE у дата-центрах компанії — 1,09. Це означає: на кожні 100 Вт, витрачені на обчислення, лише 9 Вт іде на охолодження та інші сервіси. Для порівняння: середній PUE по галузі — 1,3–1,4.

Нарешті, динаміку. За останній рік показники енергоспоживання та вуглецевого сліду у розрахунку на один запит знизилися у десятки разів. Зазвичай такі покращення в індустрії потребують кількох років (а то й десятиліть), тут же — результат лише за 12 місяців завдяки системній роботі інженерів.

Так, й ще один важливий момент. Про електрику говорять багато, про вуглець пишуть у звітах, а вода зникає тихо. Але цифри є: 0,26 мл на запит. Наче й непомітно. Проте у масштабах дата-центрів це вже мільйони літрів на місяць. Вода витрачається на охолодження. У регіонах із жарким кліматом на 1 кВт·год йде значно більше води, ніж, скажімо, у Північній Європі. Google визнає: це виклик. Компанія інвестує у замкнені системи, переносить навантаження у регіони з низьким «водним стресом». Це новий KPI, який доведеться враховувати бізнесу. Недостатньо сказати: «ми зелені й на відновлюваній енергії». Якщо ваш ШІ проганяє мільярди запитів у пустельному регіоні й витрачає кубометри води, інвестори та клієнти це, можливо, не оцінять (коли дізнаються, звісно).

Масштаб апетиту GPT-5

Ще один показовий приклад. У серпні 2025 року OpenAI запустила GPT-5 — модель, яку називають «штучним інтелектом рівня PhD». Вона вміє створювати сайти на ходу, розв’язувати складні завдання, генерувати глибокі тексти, відео, зображення. Але разом із цим постало питання: скільки становить одна така відповідь у кіловат-годинах і літрах води? Відповіді від компанії немає. OpenAI не публікує офіційних даних про енергоспоживання з 2020 року, коли показали параметри GPT-3. Відтоді — тиша. Улітку 2023 року Сем Альтман побіжно згадав цифру 0,34 Вт·год на запит й 0,32 мл води — але без конкретики, до якої версії це належить. Для професійної спільноти такі числа — пустий звук.

Проте незалежні дослідники мовчати не стали. Лабораторія Університету Род-Айленду провела власні вимірювання. Їхні результати: середня відповідь GPT-5 на 1000 токенів становить близько 18 Вт·год, а у пікових випадках — до 40 Вт·год. Для порівняння: 18 Вт·год — це лампа розжарювання світить 18 хвилин. А тепер візьмемо 2,5 млрд запитів на день, які обслуговує ChatGPT. Маємо добове споживання енергії на рівні 1,5 млн середніх домогосподарств США. Фактично, цілий мегаполіс.

Чому GPT-5 споживає більше? По-перше, розмір. GPT-4 оцінювали приблизно у 10 разів більшою за GPT-3. GPT-5 — ще масивніша. Логіка проста: більше нейронів — більше матриць — більше обчислень. По-друге, режим. GPT-5 — це «reasoning-модель» (модель міркувань). Вона не просто видає відповідь, а спершу багаторазово прокручує внутрішні кроки, щоб знайти рішення. Такий «довгий внутрішній монолог» призводить до зростання енергоспоживання у 5, а то й у 10 разів.

По-третє, мультимодальність. GPT-5 уміє працювати не лише з текстом, а й із зображеннями, відео, звуком. Це означає — нові обчислювальні блоки, нові міжчипові обміни, нові кіловати. Кожне зображення чи ролик коштує дорожче, ніж текст, і лічильник ресурсів росте ще швидше. Так, архітектура mixture-of-experts (суміш експертів) економить енергію: модель активує не всі параметри одразу, а лише потрібні. Так, нове «залізо» ефективніше. Але загальний розмір моделі все одно переважає ці виграші.

Споживай відповідально

Найсерйозніша проблема — навіть не сама ненаситність, а відсутність прозорості. Google показав усе: від PUE до «крапель води». OpenAI ж віддає перевагу мовчанню: з 2020 року компанія не публікувала офіційних даних про енергоспоживання. Тому незалежним дослідникам довелося будувати власні моделі — вони множили час відгуку на оціночну потужність чипів і публікували результати.

Їхній висновок: GPT-5 енерговитратніший за GPT-3/4 і входить до числа най«важчих» систем нового покоління, співставних із reasoning-моделями на кшталт o3 та китайської DeepSeek R1. Для галузі це серйозний виклик. Корпорації звикли до звітів ESG (Environmental, Social, Governance — екологічна, соціальна та управлінська відповідальність). Тепер інвестори чекатимуть чесних цифр й від ШІ-провайдерів. Без цього розмова про «зелений ШІ» залишиться пустими словами.

Для компаній ситуація вже не абстрактна. Кожен контракт на хмарний ШІ перетворюється на частину ESG-стратегії. Якщо раніше CIO дивилися лише на SLA, то тепер доведеться додавати ще один параметр: кіловат-години та літри на тисячу токенів. Google із його «повним стеком» дає зручну матрицю. Її можна включати прямо у RFP (Request for Proposal — запит пропозицій до постачальника): вкажіть енергію, воду, вуглець, PUE, резерви.

Далі виникає інженерна математика. Де вмикати reasoning, а де обійтися короткою відповіддю? Які процеси варто оптимізувати батчингом? Що кешувати, щоб не витрачати зайву енергію? Й головне — куди переносити навантаження: у Скандинавію, де зеленій енергії вдосталь, чи у спекотні регіони, де багато сонця, проте кожен літр води на вагу золота? Подібні рішення стають стратегічними.

Google формулює мету чітко: цілодобова робота на 100% безвуглецевій генерації. Не просто «купити зелений сертифікат», а реально синхронізувати навантаження з вітром і сонцем. У Скандинавії, скажімо, це простіше, у Каліфорнії — складніше. Отже, потрібні сховища енергії, розумна оркестрація, перенесення частини завдань між дата-центрами. Для ШІ це особливо чутливо. Текстові відповіді можна «розподіляти» між кластерами, а от мультимодальні пайплайни з відео чи reasoning-режимом потребують тонкого налаштування. У цьому випадку безвуглецева (carbon-free) енергія стає фактично новим SLA. В іншому разі цифрова революція може перетвориться на екологічну катастрофу.

© 2008—2026 De Novo (ТОВ «Де Ново»)