ИИ-агенты в действии. Экономика, риски и новая организационная архитектура — выводы исследований и задачи

Мировая цифровая повестка подходит к рубежу, когда искусственный интеллект перестаёт быть вспомогательной технологией и начинает менять сами основы организации труда, управления и принятия решений. Одним из ключевых проявлений этого сдвига становятся ИИ-агенты — автономные программные системы, использующие методы искусственного интеллекта для достижения заданных целей, способные самостоятельно планировать действия, взаимодействовать с внешними сервисами и адаптироваться к изменяющейся среде.

В 2025 году компания Axenix при экспертной поддержке Исследовательского центра в сфере искусственного интеллекта МГУ имени М.В. Ломоносова представила аналитический доклад «ИИ-агенты в действии: экономика, риски и эволюция организационных моделей» — первое в России масштабное исследование по этой теме. Параллельно Международный альянс в сфере искусственного интеллекта завершил форсайт-проект «Горизонты искусственного интеллекта: какими будут технологии ИИ через 10 лет», где целое направление посвящено управлению, принятию решений и агентным/мультиагентным системам.

Аналитическая группа ИМИСС МГУ рассматривает эти работы в едином контексте с новейшими международными обзорами по agentic AI (агентному искусственному интеллекту) IBM, McKinsey, PwC и других центров. Это позволяет сформулировать повестку для Московского университета как научного и образовательного центра, который должен не только использовать готовые решения, но и задавать собственные траектории развития в этой области.

ИИ-агенты как новый уровень развития искусственного интеллекта

В аналитическом докладе Axenix ИИ-агенты определяются как автономные системы, получающие данные из окружающей среды, анализирующие их и реагирующие без постоянного вмешательства человека для достижения определённой цели. В отличие от «классического» ИИ, решающего отдельные узкие задачи или исполняющего заранее заданные сценарии, агенты обладают целеполаганием, учитывают контекст, строят план действий, оркестрируют внешние сервисы и способны оценивать и корректировать результат.

По сравнению с привычным генеративным ИИ (системами, которые по запросу создают текст или изображение) агентный подход добавляет несколько принципиальных уровней:

  • Планирование (planning) — формирование последовательности шагов, а не ответ на один запрос.
  • Инструментальность — системное использование внешних сервисов, баз данных и программных интерфейсов для достижения цели.
  • Долгоживущие состояния — накопление контекста и опыта, позволяющее агенту корректировать своё поведение.
  • Коллективная работа — объединение нескольких агентов в системы и мультиагентные среды с распределением ролей.

Международный форсайт «Горизонты искусственного интеллекта» показывает, что именно сочетание обучения с подкреплением (reinforcement learning, RL), больших языковых моделей (large language models, LLM) и мультиагентных архитектур становится одним из ключевых драйверов развития ИИ для управления и принятия решений. В перспективе это ведёт к созданию сложных «обществ агентов», способных работать в реальном и цифровом мире — от автономного транспорта до научных исследований.

Экономика и организационные модели — выводы российского исследования

Доклад Axenix и ИЦИИ МГУ фокусируется на двух блоках: экономике внедрения ИИ-агентов и эволюции организационных моделей управления ими. Среди ключевых выводов:

  1. Сложная структура эффектов.
    Традиционные методы оценки эффективности проектов ИИ плохо учитывают косвенные и нематериальные эффекты, которые особенно важны для агентных систем: изменение скорости принятия решений, качества клиентского опыта, внутренней культуры взаимодействия с данными и технологиями. Эти эффекты трудно измерить, но они могут оказывать долговременное влияние на конкурентоспособность.
  2. Нелинейная экономика масштаба.
    На ранних стадиях внедрения стоимость владения ИИ-агентами высока, окупаемость растянута по времени, а риски — значительны. По мере формирования единой экосистемы агентов, повторного использования компонентов и накопления компетенций эффект масштаба становится нелинейным: появляются синергии между бизнес-функциями, а совокупный экономический результат существенно растёт.
  3. Новые классы рисков.
    Вводятся и систематизируются риск-классы, связанные с качеством данных, устойчивостью моделей, нежелательными действиями агентов, этическими и регуляторными аспекты. Для каждого класса описываются признаки и меры управления — от использования объяснимых моделей (explainable AI) до специализированных процедур аудита и мониторинга.
  4. Ролевая модель и AI Governance.
    Исследование подчёркивает необходимость отдельной роли ИИ-лидера, который отвечает за стратегию внедрения, интеграцию с управлением данными (chief data officer), рисками и корпоративной культурой.
    Предлагается многоуровневая модель AI Governance (системы корпоративного управления ИИ), включающая уровни данных, моделей, приложений (агентов), инфраструктуры, пользователей, кадровой политики и корпоративных политик.
  5. Эволюция организационных схем.
    На практике выделяются централизованные, децентрализованные и гибридные модели управления ИИ-агентами. По мере роста масштабов и критичности проектов организации переходят от разрозненных инициатив к гибридным и централизованным схемам, где единые стандарты и процедуры сочетаются с возможностью экспериментировать на уровне отдельных команд.

Для российской практики это не только прикладной методический материал для крупных компаний и финансово-технологических институтов, но и фундаментальный вход в постановку научных и образовательных задач — от формализации организационных моделей до построения количественных моделей риска и эффективности агентных систем.

Мировой контекст: agentic AI как новая цифровая инфраструктура

Международные обзоры подтверждают: ИИ-агенты становятся не просто новой функцией в приложениях, а самостоятельным уровнем цифровой инфраструктуры организаций.

  • IBM в «The 2025 Guide to AI Agents» описывает архитектуры agentic RAG (retrieval-augmented generation с агентами), мультиагентные системы и фреймворки для оркестрации агентов, подчёркивая, что именно такие архитектуры позволяют работать с комплексными многошаговыми процессами.
  • McKinsey в обзоре «The state of AI in 2025: Agents, innovation, and transformation» показывает, что подавляющее большинство компаний уже используют ИИ, а около четверти масштабируют agentic AI хотя бы в одной бизнес-функции. При этом только небольшой процент организаций смог выстроить системные подходы к данным, инфраструктуре и управлению рисками — именно они демонстрируют наибольшие показатели роста и инновационности.
  • ISG в «State of the Agentic AI Market Report 2025» фиксирует концентрацию кейсов ИИ-агентов в ИТ-функциях (прежде всего, DevOps и управление инфраструктурой) и в секторах BFSI (банковский, финансовый, страховой сектор), ритейла и промышленности. Авторы подчёркивают, что ключевым ограничением становится не столько отсутствие технологий, сколько фрагментированность данных и нерешённые вопросы AI Governance.
  • PwC в материале «Unlocking value with AI agents: A responsible approach» показывает, что по мере роста автономности агентов решающим фактором становится прозрачная система надзора и ответственности, включая появление специализированных «операционных систем» для оркестрации флота агентов (agent OS).

Форсайт Международного альянса ИИ дополняет эту картину с научной стороны, формируя пирамиду развития: от фундаментальной математики и вычислительных архитектур до агентных систем и взаимодействия человека и машины, включая элементы AGI (artificial general intelligence, общий искусственный интеллект) и общественные эффекты.

Риски, доверие и этика: от корпоративного управления к глобальным стандартам

Развитие agentic AI обостряет проблему доверия к цифровым системам. В отдельном аналитическом материале ИМИСС МГУ уже рассматривал кризис доверия, возникающий на фоне распространения генеративных моделей и эрозии традиционных источников знания.

В случае ИИ-агентов к этому добавляются новые аспекты:

  • риск нежелательных действий агентов и сложность их предсказания в мультиагентных сценариях;
  • «чёрный ящик» сложных моделей, затрудняющий аудит решений и распределение ответственности;
  • необходимость учитывать регуляторные ограничения и этические нормы в различных юрисдикциях.

На международном уровне эти вопросы всё чаще рассматриваются в единой рамке — от стандартов AI Governance до специализированных документов по этике и правам человека в цифровой среде. Принятая ЮНЕСКО Рекомендация по этике нейротехнологий фиксирует принципы ментальной конфиденциальности и когнитивной свободы человека, подчёркивая, что сочетание ИИ и технологий доступа к мозговой активности требует особых гарантий достоинства и автономии личности.

Для организационных и государственных систем это означает, что внедрение ИИ-агентов должно сопровождаться:

  • формализацией ответственности и процедур аудита;
  • развитием методов объяснимости и верификации (включая математические подходы к анализу мультиагентной динамики);
  • системной работой с кадрами и культурой — от обучения сотрудников до формирования норм безопасного и ответственного использования ИИ.

Позиция ИМИСС МГУ — научный суверенитет и собственные треки развития agentic AI

Опыт обсуждения глобальных инициатив AI for Science, экзафлопсных вычислительных платформ и нормативной рамки ЮНЕСКО по нейротехнологиям уже показал, что для Института принципиально важно не просто фиксировать внешние события, но сопоставлять их с собственными научными приоритетами и задачами технологического суверенитета.

В логике этой стратегии анализ исследований по ИИ-агентам и агентным системам задаёт для Инстита несколько приоритетных треков:

  1. Фундаментальная исследовательская повестка.
    • Развитие математических основ agentic AI: теория игр и управления в мультиагентных системах, устойчивость и безопасность сложной динамики, методы формальной верификации и объяснимости.
    • Моделирование сложных социально-технических систем, где ИИ-агенты выступают полноправными участниками наряду с людьми и организациями — от финансовых коммуникаций и многорельсовых платёжных систем до управления инфраструктурой и транспортом.
  2. Онтологическая и инфраструктурная база.
    • Интеграция результатов исследований в национальную интеллектуальную платформу «Ковчег знаний», развитие онтологий и графов знаний, описывающих типы агентов, сценарии применения, классы рисков и модели AI Governance.
    • Связка agentic AI с экзафлопсной и пост-экзафлопсной вычислительной инфраструктурой, необходимой для обучения и тестирования сложных мультиагентных моделей.
  3. Образование и подготовка кадров.
    • Встраивание тематики ИИ-агентов и мультиагентных систем в межфакультетские курсы, магистерские программы и проектные семинары МГУ — на стыке математики, информатики, экономики и управления.
    • Подготовка специалистов нового типа — от архитекторов agentic AI и инженеров мультиагентных систем до ИИ-лидеров, способных соединять научную, технологическую и управленческую оптику.
  4. Аналитика для государства и партнёров.
    • Продолжение регулярных аналитических обзоров по agentic AI и AI Governance для университетского руководства, регуляторов и корпоративных партнёров.
    • Разработка предложений по нормативным и методическим рамкам внедрения ИИ-агентов в критически важных отраслях, включая образование, здравоохранение, финансовую систему и управление инфраструктурой.

ИМИСС МГУ рассматривает развитие agentic AI не как очередной технологический тренд, а как часть более широкой задачи — построения научно обоснованных, проверяемых и этически устойчивых цифровых институтов. В ближайшее время аналитическая группа института продолжит работу по интеграции результатов российских и международных исследований в собственные научные и образовательные проекты.

Справочно