Продукты
De Novo
Партнерство
Блог
Контакты
Меню
Продукты
Продукты
Kubernetes as a Service
Частное облако
Публичное облако
Хранение данных
De Novo
De Novo
Аттестаты и сертификаты
Аттестаты и сертификаты
Сертификаты De Novo
Операционные процессы и информационная безопасность De Novo подтверждены международной и государственной сертификацией и соответствуют требованиям корпоративного бизнеса
Работа в De Novo
Партнерство
Контакты
Главная Блог компании De Novo Когда появится «сильный» ИИ? Возможно, уже в 2027 году
Когда появится «сильный» ИИ? Возможно, уже в 2027 году

Когда появится «сильный» ИИ? Возможно, уже в 2027 году

2025-12-05

Когда появится искусственный интеллект, чьи способности сопоставимы с человеческим мозгом? Этот вопрос волнует многих. Еще недавно считалось, что произойдет это через десятки лет, но исследователи из проекта AI Futures полагают: ждать осталось недолго.

Обсуждение сроков появления «сильного» AI или искусственного интеллекта общего назначения (Artificial General Intelligence, AGI) наконец, выходит за рамки абстрактных прогнозов. Все больше исследователей и ученых пытаются ставить конкретные сроки появления технологии, поскольку нам важно не «проспать» момент, когда ИИ станет по-настоящему умным.

Поэтому отчет «AI 2027», опубликованный исследователями из проекта AI Futures во главе с Дэниелом Кокотайло, Скоттом Александером и Эли Лифландом, вызвал значительный резонанс в ИТ-сообществе и за его пределами. Авторы попытались не только обозначить общие тенденции, но и предложили конкретный сценарий развития искусственного интеллекта с временными метками и количественными показателями. В отличие от большинства других прогнозов, документ изначально задуман как проверяемый: через два-три года можно будет сопоставить заявленные параметры с фактическим ходом событий.

Например, исследователи прогнозируют появление систем, которые смогут превзойти людей в программировании, уже в начале 2027 года. Конец того же года в сценарии обозначен как потенциальный рубеж для «сильного» искусственного сверхинтеллекта (AGI). При этом альтернативный прогноз переносит медианную дату на апрель 2028 года. Таким образом, конец 2027 года рассматривается как возможность, но не единственный исход.

Этапы роста и риски развития

Развитие крупных языковых моделей (LLM) последних лет продемонстрировало переход от экспериментальных прототипов к системам промышленного уровня. GPT-4, Claude и Sonnet выполняют задачи написания кода, анализа текста, логических рассуждений, зачастую на уровне квалифицированных специалистов. На этой базе строится базовый сценарий прогноза AI 2027. Следующий шаг — появления систем, способных выполнять все задачи профессионального программиста лучше и быстрее человека. Следующая фаза связана с тем, что такие модели начинают проектировать новые поколения ИИ-систем, ускоряя цикл их разработки. К середине 2027 года временной лаг между поколениями LLM-моделей сократится до считанных месяцев.

Такой сценарий основан на динамике роста вычислительных ресурсов. Обучение GPT-4 потребовало около 2×10²⁵ FLOP. К 2026–2027 годам прогнозируется обучение моделей на уровне 10²⁸ FLOP, что эквивалентно увеличению в сотни раз. Финансовая сторона также меняется. Если разработка GPT-4 стоила $50–100 млн, то к концу 2027 года снижение стоимости владения оборудованием делает возможным обучение значительно более мощных моделей при сопоставимых бюджетах. В отчёте указывается, что средняя цена одного «вычислительного эквивалента» GPU Nvidia H100 снизится с примерно $50 тыс в начале 2023 года до около $15 тыс в 2027-м.

К тому же ключевые показатели включают рост глобального пула вычислительных мощностей до примерно 100 млн таких «эквивалентов» к декабрю 2027 года, что в десять раз выше нынешнего уровня 2025 года. У ведущих компаний мощность может вырасти в десятки раз (в предельных случаях. Сектор ИИ к этому моменту потребует около 60 ГВт электроэнергии, что соответствует примерно 3,5% энергопотребления США. Однако, распределение ресурсов останется крайне неравномерным. Согласно оценкам, к концу 2027 года три крупнейшие американские компании будут контролировать до 50-60% вычислительных мощностей ИИ, что обеспечит им доминирующее положение на мировом рынке. Такая концентрация мощностей создаёт ситуацию, когда несколько игроков обладают ресурсами, превосходящими возможности большинства государств. Если хотя бы одна из таких компаний получаит доступ к AGI, это может стать фактором моментального изменения мирового баланса сил.

В числе других обсуждаемый рисков — т.н. misalignment, то есть рассогласование целей AI-системы с человеческими ценностями. В анализе приводится модель: если вероятность расхождения составляет хотя бы 10%, то при экспоненциальном росте возможностей ИИ последствия этого риска умножаются на миллиарды действий ежедневно. Даже минимальное отклонение в интерпретации целей в такой ситуации может привести к масштабным непредсказуемым результатам.

Решающим фактором становится автоматизация самого процесса разработки. Как только появляется модель, способная к программированию выше человеческого уровня, цикл обучения новых систем перестаёт ограничиваться скоростью работы инженерных команд. Прежняя версия ИИ проектирует архитектуру и алгоритмы для следующей. Разработка GPT-4 заняла более года и потребовала значительных ресурсов. В прогнозируемом сценарии 2027 года обучение модели в сотни раз мощнее может занять лишь месяцы, а проектирование архитектуры — недели. Это приводит к сокращению интервалов между поколениями до уровня, при котором темп развития начинает превышать возможности регулирования и контроля.

Отдельно рассматривается риск, связанный с инфраструктурой. По мере интеграции систем уровня AGI в энергетику, транспорт, финансы и оборону повышается вероятность того, что сбой или некорректное поведение приведут к последствиям национального или даже глобального уровня. В отличие от ошибок GPT-4, ограниченных неверным ответом в диалоге, сбой «сильной» ИИ-системы может поставить под угрозу функционирование критически важных объектов и инфраструктур целых государств.

Надо договариваться: альтернативные варианты

Экономический эффект от внедрения AGI оценивается триллионами $. Автоматизация научных исследований, разработок и производства, оптимизация финансовых систем и использование в военной сфере могут многократно увеличить ВВП страны или корпорации, первой получившей доступ к AGI. Авторы прямо сравнивают такую асимметрию с ядерной монополией середины XX века, но подчёркивают, что область применения «сильного» ИИ значительно шире.

На этом фоне исследователи говорят о необходимости международного надзора над соответствующими технологиями — по аналогии с режимом ядерного нераспространения и предполагают возможность введения системы учёта вычислительных мощностей, а также совместного контроля над суперкомпьютерами. В этом случае риск внезапного рывка одной стороны снижается. Однако отмечают авторы, текущее распределение ресурсов уже крайне неравномерно: более 70% рынка ИИ контролируется США и союзниками, Китай активно наращивает собственные мощности и это в сумме создаёт напряжённость и усложняет перспективы консенсуса.

Второй вариант связан с развитием технических систем контроля. В отчёте указывается, что уже ведутся исследования в области интерпретируемости моделей, разработка alignment-тестов и методов встраивания ограничений в архитектуру будущих ИИ. Если удастся реализовать такие меры, можно выиграть 1–2 года между появлением систем уровня AGI и их широким внедрением. Эта временная отсрочка может оказаться достаточной для разработки международных регуляторных механизмов.

Третий вариант предполагает введение жёстких ограничений на обучение моделей свыше определённого объёма FLOP. Такой шаг теоретически способен замедлить прогресс и снизить вероятность неконтролируемого скачка. Однако без глобальной договорённости подобные меры будут работать только для «честных игроков». Если хотя бы одна компания или государство продолжат скрытую гонку, эффект от ограничений будет минимальным.

В качестве дополнительного условия рассматривается фактор публичных дискуссий. Авторы отмечают, что открытое обсуждение часто отстаёт от технологической реальности на годы. Пока инженеры меряют прогресс в кварталах и поколениях чипов, политики и регуляторы обсуждают события, относящиеся к прошлым стадиям развития. Эта задержка делает традиционные институты управления неэффективными в условиях экспоненциального роста.

Главный вывод, который позволяет сделать «AI 2027»: путь от сегодняшних «слабых» моделей до искусственного интеллекта «человеческого уровня» может занять не десятилетия, как прогнозировалось еще недавно, а всего лишь пару лет. Даже если прогноз окажется слишком оптимистичным, все равно, потенциальная близость появления AGI требует пересмотра стратегических планов бизнеса и государств уже сейчас. Для компаний это вопрос инвестиций. Для государств — вопрос национальной безопасности, сопоставимый по значимости с контролем над ядерными технологиями.

© 2008—2026 De Novo (ТОВ «Де Ново»)