19 ноября 2025 года на конференции Artificial Intelligence Journey-2025 Президент Российской Федерации Владимир Владимирович Путин поставил задачу перехода от разрозненных инициатив в сфере искусственного интеллекта к созданию «реального штаба» управления развитием ИИ, суверенных генеративных моделей и инфраструктуры данных и вычислений.
Как развитие этой повестки, аналитическая группа Института математических исследований сложных систем МГУ имени М.В. Ломоносова (ИМИСС МГУ) завершила масштабное исследование международного опыта создания штабов и координационных структур в области ИИ и цифровой трансформации. Работа охватывает десятки национальных стратегий, специализированные институты и регуляторные модели, позволяя сопоставить различные подходы к управлению развитием искусственного интеллекта и сформировать предложения для российской практики.
Мировая архитектура управления ИИ — от стратегий к штабам исполнения
Проведённый анализ показывает, что ведущие государства и международные организации последовательно переходят от декларативных стратегий к специализированным структурам управления реализацией ИИ-политики: штабам исполнения, институтам безопасности ИИ, отраслевым офисам и межведомственным координационным органам.
На глобальном уровне можно выделить несколько ключевых нормативных и рамочных опор, задающих контур регулирования и этики ИИ:
- Рекомендация ЮНЕСКО по этике искусственного интеллекта (2021 г.) — первый универсальный межгосударственный документ, закрепляющий приоритет прав человека, достоинства личности, прозрачности, справедливости и обязательного человеческого контроля над критически важными системами.
- Принципы ОЭСР по ИИ (2019 г., с последующими обновлениями) — межгосударственный набор принципов ответственного и надёжного ИИ, ориентированных на общественное благо, защиту прав человека и демократических ценностей, требования к прозрачности, устойчивости, безопасности и подотчётности.
- Глобальная повестка “frontier AI” (G7, ООН, крупнейшие технологические компании) — серия деклараций и рамочных решений по управлению рисками передовых моделей (frontier models), в том числе по вопросам безопасности, тестирования, доступа к моделям и международного обмена практиками.
- Развивающаяся экосистема региональных и национальных актов (EU AI Act, национальные стратегии и законы об ИИ) — формирующаяся «вторичная» нормативная среда, в которой принципы ЮНЕСКО и ОЭСР переводятся в конкретные правовые режимы и механизмы надзора.
Эти документы задают ценностный и регуляторный фон, в рамках которого государства формируют собственные штабы и институты управления ИИ.
Европейский союз — модель многоуровневого регулирования и AI Office
В Европейском союзе принятый Акт об искусственном интеллекте (EU AI Act) закрепляет многоуровневую архитектуру управления:
- создаётся Европейский офис по ИИ (AI Office) в структуре Европейской комиссии, отвечающий за координацию реализации акта, особенно в части общесистемных (foundation) моделей;
- формируется Европейский совет по искусственному интеллекту (AI Board) с представителями всех государств–членов, играющий ключевую роль в согласовании практики применения акта и обмене экспертизой;
- государства–члены обязаны назначить национальные компетентные органы, органы рыночного надзора и другие структуры, обеспечивающие практическое применение норм акта на своей территории.
Фактически это формирует распределённый «штаб» реализации политики в сфере ИИ, в котором центральный офис, национальные органы и специализированные структуры действуют в единой институциональной рамке.
США и Великобритания — институты безопасности и стандартизации ИИ
Исследование фиксирует формирование особого класса институтов, ориентированных на безопасность, оценку и стандартизацию ИИ-систем.
В США в фокусе находятся:
- Рамка управления рисками ИИ (NIST AI Risk Management Framework), задающая добровольную, но де-факто референтную модель управления рисками ИИ для государства и бизнеса;
- U.S. AI Safety Institute (AISI) и его трансформация в Center for AI Standards and Innovation (CAISI), отвечающие за разработку методологии тестирования, оценки и стандартов для систем ИИ, включая сотрудничество с ведущими разработчиками и акцент на национальной безопасности и защите от конкретных угроз (кибербезопасность, биобезопасность и др.).
В Великобритании создан AI Safety Institute (AISI UK) — эволюция правительственной Frontier AI Taskforce:
- институт располагается «в сердце правительства» и имеет мандат на экспериментальные оценки возможностей и рисков передовых (frontier) моделей;
- институт получил уникальный режим раннего доступа к моделям крупнейших компаний, проводит систематические испытания и предоставляет правительству эмпирическую базу для принятия регуляторных решений;
- опыт Великобритании дополняется проведением саммитов по безопасности ИИ (Bletchley, Seoul) и построением долгосрочной линии государственной политики в области управления рисками ИИ.
В совокупности эти институты демонстрируют модель «штабов безопасности ИИ», работающих на стыке науки, промышленности и регуляторов.
ОАЭ и Сингапур — министерства и экспериментальные контуры
Особый интерес в исследовании представляют государства, которые институционализировали ИИ на уровне правительственных структур и экспериментальных платформ.
В Объединённых Арабских Эмиратах:
- уже в 2017 году учреждена должность Министра по делам искусственного интеллекта, позднее трансформированная в Министерство по вопросам ИИ, цифровой экономики и удалённых форм занятости;
- ИИ интегрирован в долгосрочную стратегию экономического развития, значительная часть которой связана с созданием крупных дата-центров и инвестициями в глобальные ИИ-инициативы, включая инфраструктурные проекты и кампусы ИИ мирового масштаба.
Сингапур демонстрирует модель «регуляторно-инженерной» платформы:
- разработана Model AI Governance Framework, ориентированная на практическое применение принципов ответственного ИИ в компаниях;
- создана инициатива AI Verify и одноимённый фонд — инструмент тестирования и самооценки ИИ-систем на соответствие набору этических и управленческих принципов, направленный на повышение прозрачности и доверия к ИИ как экономическому активу.
Эти примеры иллюстрируют разные конфигурации «штабов» ИИ — от министерств и профильных министров до национальных платформ добровольной сертификации и экспериментальных контуров управления.
Типология международных моделей штабов ИИ — выводы исследования ИМИСС МГУ
На основе собранного материала аналитическая группа ИМИСС МГУ выделяет несколько типовых моделей организации штабов и координационных структур в сфере ИИ:
- Стратегические советы и комиссии при высших органах власти
Коллегиальные органы, задающие стратегические цели, принципы и приоритеты развития ИИ, зачастую с участием представителей науки, бизнеса и гражданского общества. - Штабы исполнения и “delivery units” при правительствах
Небольшие, но высокопрофессиональные команды, отвечающие за реализацию национальных планов по ИИ: постановку целей и показателей, сопровождение ключевых проектов, мониторинг хода внедрения и подготовку предложений по управленческим вмешательствам. - Институты безопасности, оценки и стандартизации ИИ
Специализированные центры (по типу AI Safety Institute в Великобритании или CAISI / AISI в США), ориентированные на разработку и апробацию методик тестирования, оценку рисков передовых моделей и формирование стандартов и рекомендаций. - Регуляторные офисы и надзорные органы
Структуры, встроенные в систему технического регулирования и надзора (Европейский AI Office, национальные органы под AI Act), отвечающие за практическую реализацию требований к системам ИИ и координацию национальных регуляторов. - Министерства и специальные правительственные портфели по ИИ
Модели, в которых ИИ закреплён как самостоятельное направление государственной политики и институционально объединён с цифровой экономикой и инновационным развитием (пример ОАЭ).
Исследование показывает, что наиболее устойчивые и результативные национальные модели сочетают несколько из указанных типов, увязывая их с долгосрочными программами по развитию инфраструктуры данных и вычислений, кадровым обеспечением и интеграцией ИИ в системы государственного управления.
Российский запрос и роль ИМИСС МГУ
Выступление Президента России на AI Journey-2025 сформулировало системный запрос на создание национального штаба в сфере ИИ, обладающего административным ресурсом и полномочиями по координации министерств, ведомств и регионов, а также на развитие суверенных генеративных моделей и инфраструктуры данных и вычислений.
С учётом этого запроса и на основе проведённого международного анализа Институт реализовал комплексную исследовательскую программу, включающую:
- картирование зарубежных моделей штабов, институтов безопасности и регуляторов в сфере ИИ и цифровой трансформации;
- анализ применимости этих подходов в российском контексте с учётом национальных приоритетов технологического и когнитивного суверенитета, особенностей государственной системы и реализуемых национальных проектов;
- формирование концептуальной рамки для организации штаба, ориентированного на реализацию задач, поставленных в выступлении Президента и в национальных стратегических документах.
Выполненная задача по разработке стратегии формирования Российского штаба ИИ
По итогам исследования разработан комплекс стратегических материалов, включающий концептуальную модель создания и функционирования Российского штаба ИИ, схемы взаимодействия с существующими органами государственной власти, предложения по контурам ответственности, механизмам мониторинга и формам участия научного и образовательного сообщества.
Учитывая стратегический и чувствительный характер ряда анализируемых аспектов (инфраструктура данных и вычислений, вопросы национальной безопасности, кадровые контуры и др.), подготовленные материалы не публикуются в открытом доступе.
ИМИСС МГУ готов представить докладную записку и детализированные предложения по архитектуре и этапам создания Российского штаба ИИ в формате закрытых экспертных обсуждений с:
- Администрацией Президента Российской Федерации и Аппаратом Совета Безопасности РФ;
- профильными комитетами Государственной Думы и Совета Федерации;
- Правительством Российской Федерации и федеральными органами исполнительной власти, ответственными за реализацию национальной политики в сфере искусственного интеллекта, цифровой экономики и научно-технологического развития.
Тем самым поставленная на AI Journey-2025 задача не только зафиксирована в аналитическом поле, но и обеспечена содержательным фундаментом, опирающимся на сопоставление лучших международных практик и российские приоритеты суверенного развития в сфере ИИ.
Справочно
- Выступление Президента Российской Федерации В.В. Путина на конференции AI Journey-2025 — официальный сайт Президента РФ
https://en.kremlin.ru/events/president/news/78498 - Выступление Президента России В.В. Путина на конференции AI Journey-2025: суверенный генеративный ИИ, национальный штаб и инфраструктура данных — аналитический материал ИМИСС МГУ
https://imiss.msu.ru/vystuplenie-prezidenta-rossii-v-v-putina-na-konferenczii-ai-journey-2025-suverennyj-generativnyj-ii-naczionalnyj-shtab-i-infrastruktura-dannyh/ - Recommendation on the Ethics of Artificial Intelligence — Рекомендация ЮНЕСКО по этике искусственного интеллекта (2021 г.)
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics - OECD AI Principles — Принципы ОЭСР по искусственному интеллекту
https://oecd.ai/en/ai-principles - AI Office и European AI Board — материалы Европейской комиссии о системе управления по AI Act.
https://digital-strategy.ec.europa.eu/en/policies/ai-board - NIST AI Risk Management Framework и U.S. AI Safety Institute / CAISI — материалы Национального института стандартов и технологий США
https://www.nist.gov/itl/ai-risk-management-framework - AI Safety Institute (UK) — материалы Правительства Великобритании о национальном институте безопасности ИИ.
https://www.gov.uk/government/publications/ai-safety-institute-overview/introducing-the-ai-safety-institute - Model AI Governance Framework и AI Verify — материалы Управления по развитию медиа (IMDA) и регуляторов Сингапура
https://www.imda.gov.sg/resources/press-releases-factsheets-and-speeches/press-releases/2023/singapore-launches-ai-verify-foundation - Ministry of State for Artificial Intelligence, Digital Economy and Remote Work Applications (UAE) — официальная информация о министерстве и министре по вопросам ИИ в ОАЭ
https://en.wikipedia.org/wiki/Ministry_of_State_for_Artificial_Intelligence%2C_Digital_Economy_and_Remote_Work_Applications
