Международные модели штабов искусственного интеллекта — выводы и предложения аналитического исследования ИМИСС МГУ

19 ноября 2025 года на конференции Artificial Intelligence Journey-2025 Президент Российской Федерации Владимир Владимирович Путин поставил задачу перехода от разрозненных инициатив в сфере искусственного интеллекта к созданию «реального штаба» управления развитием ИИ, суверенных генеративных моделей и инфраструктуры данных и вычислений.

Как развитие этой повестки, аналитическая группа Института математических исследований сложных систем МГУ имени М.В. Ломоносова (ИМИСС МГУ) завершила масштабное исследование международного опыта создания штабов и координационных структур в области ИИ и цифровой трансформации. Работа охватывает десятки национальных стратегий, специализированные институты и регуляторные модели, позволяя сопоставить различные подходы к управлению развитием искусственного интеллекта и сформировать предложения для российской практики.

Мировая архитектура управления ИИ — от стратегий к штабам исполнения

Проведённый анализ показывает, что ведущие государства и международные организации последовательно переходят от декларативных стратегий к специализированным структурам управления реализацией ИИ-политики: штабам исполнения, институтам безопасности ИИ, отраслевым офисам и межведомственным координационным органам.

На глобальном уровне можно выделить несколько ключевых нормативных и рамочных опор, задающих контур регулирования и этики ИИ:

  • Рекомендация ЮНЕСКО по этике искусственного интеллекта (2021 г.) — первый универсальный межгосударственный документ, закрепляющий приоритет прав человека, достоинства личности, прозрачности, справедливости и обязательного человеческого контроля над критически важными системами.
  • Принципы ОЭСР по ИИ (2019 г., с последующими обновлениями) — межгосударственный набор принципов ответственного и надёжного ИИ, ориентированных на общественное благо, защиту прав человека и демократических ценностей, требования к прозрачности, устойчивости, безопасности и подотчётности.
  • Глобальная повестка “frontier AI” (G7, ООН, крупнейшие технологические компании) — серия деклараций и рамочных решений по управлению рисками передовых моделей (frontier models), в том числе по вопросам безопасности, тестирования, доступа к моделям и международного обмена практиками.
  • Развивающаяся экосистема региональных и национальных актов (EU AI Act, национальные стратегии и законы об ИИ) — формирующаяся «вторичная» нормативная среда, в которой принципы ЮНЕСКО и ОЭСР переводятся в конкретные правовые режимы и механизмы надзора.

Эти документы задают ценностный и регуляторный фон, в рамках которого государства формируют собственные штабы и институты управления ИИ.

Европейский союз — модель многоуровневого регулирования и AI Office

В Европейском союзе принятый Акт об искусственном интеллекте (EU AI Act) закрепляет многоуровневую архитектуру управления:

  • создаётся Европейский офис по ИИ (AI Office) в структуре Европейской комиссии, отвечающий за координацию реализации акта, особенно в части общесистемных (foundation) моделей;
  • формируется Европейский совет по искусственному интеллекту (AI Board) с представителями всех государств–членов, играющий ключевую роль в согласовании практики применения акта и обмене экспертизой;
  • государства–члены обязаны назначить национальные компетентные органы, органы рыночного надзора и другие структуры, обеспечивающие практическое применение норм акта на своей территории.

Фактически это формирует распределённый «штаб» реализации политики в сфере ИИ, в котором центральный офис, национальные органы и специализированные структуры действуют в единой институциональной рамке.

США и Великобритания — институты безопасности и стандартизации ИИ

Исследование фиксирует формирование особого класса институтов, ориентированных на безопасность, оценку и стандартизацию ИИ-систем.

В США в фокусе находятся:

  • Рамка управления рисками ИИ (NIST AI Risk Management Framework), задающая добровольную, но де-факто референтную модель управления рисками ИИ для государства и бизнеса;
  • U.S. AI Safety Institute (AISI) и его трансформация в Center for AI Standards and Innovation (CAISI), отвечающие за разработку методологии тестирования, оценки и стандартов для систем ИИ, включая сотрудничество с ведущими разработчиками и акцент на национальной безопасности и защите от конкретных угроз (кибербезопасность, биобезопасность и др.).

В Великобритании создан AI Safety Institute (AISI UK) — эволюция правительственной Frontier AI Taskforce:

  • институт располагается «в сердце правительства» и имеет мандат на экспериментальные оценки возможностей и рисков передовых (frontier) моделей;
  • институт получил уникальный режим раннего доступа к моделям крупнейших компаний, проводит систематические испытания и предоставляет правительству эмпирическую базу для принятия регуляторных решений;
  • опыт Великобритании дополняется проведением саммитов по безопасности ИИ (Bletchley, Seoul) и построением долгосрочной линии государственной политики в области управления рисками ИИ.

В совокупности эти институты демонстрируют модель «штабов безопасности ИИ», работающих на стыке науки, промышленности и регуляторов.

ОАЭ и Сингапур — министерства и экспериментальные контуры

Особый интерес в исследовании представляют государства, которые институционализировали ИИ на уровне правительственных структур и экспериментальных платформ.

В Объединённых Арабских Эмиратах:

  • уже в 2017 году учреждена должность Министра по делам искусственного интеллекта, позднее трансформированная в Министерство по вопросам ИИ, цифровой экономики и удалённых форм занятости;
  • ИИ интегрирован в долгосрочную стратегию экономического развития, значительная часть которой связана с созданием крупных дата-центров и инвестициями в глобальные ИИ-инициативы, включая инфраструктурные проекты и кампусы ИИ мирового масштаба.

Сингапур демонстрирует модель «регуляторно-инженерной» платформы:

  • разработана Model AI Governance Framework, ориентированная на практическое применение принципов ответственного ИИ в компаниях;
  • создана инициатива AI Verify и одноимённый фонд — инструмент тестирования и самооценки ИИ-систем на соответствие набору этических и управленческих принципов, направленный на повышение прозрачности и доверия к ИИ как экономическому активу.

Эти примеры иллюстрируют разные конфигурации «штабов» ИИ — от министерств и профильных министров до национальных платформ добровольной сертификации и экспериментальных контуров управления.

Типология международных моделей штабов ИИ — выводы исследования ИМИСС МГУ

На основе собранного материала аналитическая группа ИМИСС МГУ выделяет несколько типовых моделей организации штабов и координационных структур в сфере ИИ:

  1. Стратегические советы и комиссии при высших органах власти
    Коллегиальные органы, задающие стратегические цели, принципы и приоритеты развития ИИ, зачастую с участием представителей науки, бизнеса и гражданского общества.
  2. Штабы исполнения и “delivery units” при правительствах
    Небольшие, но высокопрофессиональные команды, отвечающие за реализацию национальных планов по ИИ: постановку целей и показателей, сопровождение ключевых проектов, мониторинг хода внедрения и подготовку предложений по управленческим вмешательствам.
  3. Институты безопасности, оценки и стандартизации ИИ
    Специализированные центры (по типу AI Safety Institute в Великобритании или CAISI / AISI в США), ориентированные на разработку и апробацию методик тестирования, оценку рисков передовых моделей и формирование стандартов и рекомендаций.
  4. Регуляторные офисы и надзорные органы
    Структуры, встроенные в систему технического регулирования и надзора (Европейский AI Office, национальные органы под AI Act), отвечающие за практическую реализацию требований к системам ИИ и координацию национальных регуляторов.
  5. Министерства и специальные правительственные портфели по ИИ
    Модели, в которых ИИ закреплён как самостоятельное направление государственной политики и институционально объединён с цифровой экономикой и инновационным развитием (пример ОАЭ).

Исследование показывает, что наиболее устойчивые и результативные национальные модели сочетают несколько из указанных типов, увязывая их с долгосрочными программами по развитию инфраструктуры данных и вычислений, кадровым обеспечением и интеграцией ИИ в системы государственного управления.

Российский запрос и роль ИМИСС МГУ

Выступление Президента России на AI Journey-2025 сформулировало системный запрос на создание национального штаба в сфере ИИ, обладающего административным ресурсом и полномочиями по координации министерств, ведомств и регионов, а также на развитие суверенных генеративных моделей и инфраструктуры данных и вычислений.

С учётом этого запроса и на основе проведённого международного анализа Институт реализовал комплексную исследовательскую программу, включающую:

  • картирование зарубежных моделей штабов, институтов безопасности и регуляторов в сфере ИИ и цифровой трансформации;
  • анализ применимости этих подходов в российском контексте с учётом национальных приоритетов технологического и когнитивного суверенитета, особенностей государственной системы и реализуемых национальных проектов;
  • формирование концептуальной рамки для организации штаба, ориентированного на реализацию задач, поставленных в выступлении Президента и в национальных стратегических документах.

Выполненная задача по разработке стратегии формирования Российского штаба ИИ

По итогам исследования разработан комплекс стратегических материалов, включающий концептуальную модель создания и функционирования Российского штаба ИИ, схемы взаимодействия с существующими органами государственной власти, предложения по контурам ответственности, механизмам мониторинга и формам участия научного и образовательного сообщества.

Учитывая стратегический и чувствительный характер ряда анализируемых аспектов (инфраструктура данных и вычислений, вопросы национальной безопасности, кадровые контуры и др.), подготовленные материалы не публикуются в открытом доступе.

ИМИСС МГУ готов представить докладную записку и детализированные предложения по архитектуре и этапам создания Российского штаба ИИ в формате закрытых экспертных обсуждений с:

  • Администрацией Президента Российской Федерации и Аппаратом Совета Безопасности РФ;
  • профильными комитетами Государственной Думы и Совета Федерации;
  • Правительством Российской Федерации и федеральными органами исполнительной власти, ответственными за реализацию национальной политики в сфере искусственного интеллекта, цифровой экономики и научно-технологического развития.

Тем самым поставленная на AI Journey-2025 задача не только зафиксирована в аналитическом поле, но и обеспечена содержательным фундаментом, опирающимся на сопоставление лучших международных практик и российские приоритеты суверенного развития в сфере ИИ.

Справочно

  1. Выступление Президента Российской Федерации В.В. Путина на конференции AI Journey-2025 — официальный сайт Президента РФ
    https://en.kremlin.ru/events/president/news/78498
  2. Выступление Президента России В.В. Путина на конференции AI Journey-2025: суверенный генеративный ИИ, национальный штаб и инфраструктура данных — аналитический материал ИМИСС МГУ
    https://imiss.msu.ru/vystuplenie-prezidenta-rossii-v-v-putina-na-konferenczii-ai-journey-2025-suverennyj-generativnyj-ii-naczionalnyj-shtab-i-infrastruktura-dannyh/
  3. Recommendation on the Ethics of Artificial Intelligence — Рекомендация ЮНЕСКО по этике искусственного интеллекта (2021 г.)
    https://www.unesco.org/en/artificial-intelligence/recommendation-ethics
  4. OECD AI Principles — Принципы ОЭСР по искусственному интеллекту
    https://oecd.ai/en/ai-principles
  5. AI Office и European AI Board — материалы Европейской комиссии о системе управления по AI Act.
    https://digital-strategy.ec.europa.eu/en/policies/ai-board
  6. NIST AI Risk Management Framework и U.S. AI Safety Institute / CAISI — материалы Национального института стандартов и технологий США
    https://www.nist.gov/itl/ai-risk-management-framework
  7. AI Safety Institute (UK) — материалы Правительства Великобритании о национальном институте безопасности ИИ.
    https://www.gov.uk/government/publications/ai-safety-institute-overview/introducing-the-ai-safety-institute
  8. Model AI Governance Framework и AI Verify — материалы Управления по развитию медиа (IMDA) и регуляторов Сингапура
    https://www.imda.gov.sg/resources/press-releases-factsheets-and-speeches/press-releases/2023/singapore-launches-ai-verify-foundation
  9. Ministry of State for Artificial Intelligence, Digital Economy and Remote Work Applications (UAE) — официальная информация о министерстве и министре по вопросам ИИ в ОАЭ
    https://en.wikipedia.org/wiki/Ministry_of_State_for_Artificial_Intelligence%2C_Digital_Economy_and_Remote_Work_Applications