Agentic AI и вызовы governance по EU AI Act в 2026 году

Перейти к содержанию

Проблемы управления агентным ИИ в соответствии с Законом ЕС об ИИ в 2026 году

Джо Грин

9 апреля 2026

Поделиться этой статьёй:

Теги:

агентный ИИЗакон ЕС об ИИуправлениерегулирование

Категории:

Управление, регулирование и политика

Агентные ИИ-системы обещают автоматически перемещать данные между системами и запускать решения, но в некоторых случаях они могут действовать без чёткого следа того, что, когда и почему они выполняли свои задачи.

Это может создать проблему управления, за которую в конечном счёте отвечают IT-руководители. Если организация не может отследить действия агента и не имеет надлежащего контроля над его полномочиями, руководители не смогут доказать регуляторам, что система работает безопасно или даже законно.

Эта проблема станет ещё важнее с августа этого года, когда начнётся применение Закона ЕС об ИИ. Согласно тексту закона, за нарушения в сфере управления ИИ, особенно при использовании в высокорисковых областях, таких как обработка персональных данных или финансовые операции, предусмотрены существенные штрафы.

Что нужно учитывать IT-руководителям в ЕС

Снизить высокий уровень риска можно несколькими шагами, и среди них заслуживают внимания идентификация агента, полные журналы, проверка политик, человеческий контроль, быстрое отзыв прав, наличие документации от поставщиков и подготовка доказательной базы для представления регуляторам.

Есть несколько вариантов, которые лица, принимающие решения, могут рассмотреть, чтобы создать запись о действиях, выполняемых агентными системами. Например, SDK на Python, Asqav, может криптографически подписывать каждое действие агента и связывать все записи с неизменяемой цепочкой хэшей — техникой, которая больше ассоциируется с блокчейн-технологией. Если кто-то или что-то изменит или удалит запись, проверка цепочки не пройдёт.

Для команд, отвечающих за управление, использование подробной, централизованной, возможно, зашифрованной системы учёта для всех агентных ИИ — это мера, дающая данные, намного превосходящие разрозненные текстовые журналы, создаваемые отдельными программными платформами. Независимо от технических деталей того, как записи создаются и хранятся, IT-руководители должны точно видеть, где, когда и как агентные экземпляры действуют в масштабах всего предприятия.

Многие организации не справляются с этим первым шагом любой фиксации автоматизированной активности, основанной на ИИ. Необходимо вести реестр каждого действующего агента, с уникальной идентификацией каждого, а также с записями о его возможностях и предоставленных разрешениях. Этот «список агентных активов» тесно связан с требованиями статьи 9 Закона ЕС об ИИ, которая гласит:

  • Статья 9: В высокорисковых областях управление рисками ИИ должно быть непрерывным, основанным на доказательствах процессом, встроенным в каждый этап внедрения (разработка, подготовка, производство) и находящимся под постоянным пересмотром.

Кроме того, лицам, принимающим решения, нужно учитывать статью 13 Закона:

  • Высокорисковые ИИ-системы должны быть спроектированы так, чтобы внедряющие их могли понимать результат работы системы. Следовательно, ИИ-система стороннего поставщика должна быть интерпретируемой для своих пользователей (а не непрозрачным кодовым блоком) и должна сопровождаться достаточной документацией, обеспечивающей её безопасное и законное использование.

Это требование означает, что выбор модели и способы её развёртывания являются одновременно и техническими, и регуляторными вопросами.

Поставить на тормоз

Для любого развёртывания агентного ИИ важно предусмотреть возможность отзыва его рабочей роли, желательно в течение нескольких секунд. Возможность быстрого отзыва должна быть частью процессов реагирования на чрезвычайные ситуации. Варианты отзыва должны включать немедленное удаление привилегий, немедленное прекращение доступа к API и очистку очереди задач.

Наличие человеческого контроля, в сочетании с предоставлением людям достаточного контекста для принятия обоснованных решений, означает, что операторы должны иметь возможность отклонить любое предлагаемое действие. Недостаточно, чтобы человек, проверяющий решение, видел только запрос или показатель уверенности. Эффективный надзор требует информации о контексте, полномочиях каждого агента и времени, достаточном для вмешательства и предотвращения ошибок.

Соображения для многоагентных систем

Хотя действие каждого агента должно автоматически записываться и сохраняться, многоагентные процессы особенно сложно отслеживать, поскольку сбои могут происходить в цепочках агентов. Поэтому важно тестировать политики безопасности при разработке любой системы, которая предполагает использование нескольких агентов.

Наконец, регулирующие органы могут запросить журналы и техническую документацию в любое время, а после любого инцидента, о котором им стало известно, они, безусловно, будут необходимы.

Вывод

Вопрос, который должны рассмотреть IT-руководители, планирующие использовать ИИ на чувствительных данных или в высокорисковых средах, заключается в том, можно ли идентифицировать каждый аспект технологии, ограничить его политиками, провести аудит, прервать работу и объяснить. Если ответ неясен, управление ещё не налажено.

(Источник изображения: «Страшный суд» Лоуренса OP распространяется по лицензии CC BY-NC-ND 2.0. Чтобы посмотреть копию этой лицензии, перейдите по адресу https://creativecommons.org/licenses/by-nc-nd/2.0)

Хотите узнать больше об ИИ и больших данных от лидеров отрасли? Посетите AI & Big Data Expo, который проходит в Амстердаме, Калифорнии и Лондоне. Это масштабное мероприятие является частью TechEx и проводится совместно с другими ведущими технологическими событиями. Нажмите здесь для получения дополнительной информации.

AI News поддерживается TechForge Media. Ознакомьтесь с другими предстоящими корпоративными технологическими мероприятиями и вебинарами здесь.

Джо Грин — писатель из Бристоля, Великобритания. Он приобрёл свой первый компьютер и модем dial-up в 1992 году и работает в технологической отрасли с 2000 года. Он пишет тексты и ведёт подкасты, специализируясь на открытом исходном коде, сетевых технологиях, кибербезопасности, разработке программного обеспечения и онлайн-приватности.

Похожие материалы

У Meta есть конкурентоспособная модель ИИ, но она теряет свою open-source идентичность

10 апреля 2026

Anthropic держит новую модель ИИ в секрете после того, как она обнаружила тысячи внешних уязвимостей

9 апреля 2026

Успех разработки ПО с помощью ИИ и потребность в централизованном управлении

8 апреля 2026

Open-source набор инструментов Microsoft обеспечивает безопасность ИИ-агентов во время выполнения

8 апреля 2026

Присоединяйтесь к нашему сообществу

Подпишитесь сейчас, чтобы получать весь наш премиум-контент и последние новости технологий прямо на вашу почту

Нажмите здесь

Популярное

Стратегия ИИ в бизнесе, Искусственный интеллект, Статьи, ИИ в финансах, Мир труда

JPMorgan начинает отслеживать, как сотрудники используют ИИ на работе

5819 view(s)

ИИ в действии, Тренды рынка ИИ, Искусственный интеллект, Главные новости, Отношения человека и ИИ, Внутри ИИ, ИИ в производстве и инженерии, Физический ИИ

Google официально выходит на рынок ИИ для промышленной робототехники — и на этот раз всё серьёзно

5006 view(s)

ИИ и мы, Стратегия ИИ в бизнесе, ИИ в действии, Статьи, ИИ в финансах, Внутри ИИ, Мнение, Мир труда

Как ИИ улучшает управление корпоративной казной

4840 view(s)

ИИ и мы, Стратегия ИИ в бизнесе, ИИ в действии, Тренды рынка ИИ, Инженерия данных и MLOps, Главные новости, Статьи, ИИ в финансах, Управление, регулирование и политика, Как это работает, Отношения человека и ИИ, Инфраструктура и оборудование, Внутри ИИ, ИИ в производстве и инженерии, ИИ в розничной торговле и логистике, Мир труда

KPMG: Внутри руководства по ИИ-агентам, которое обеспечивает рост маржи в компаниях

4491 view(s) Смотреть все

Последние

Посмотреть все последние

8 апреля 2026

Успех разработки ПО с помощью ИИ и потребность в централизованном управлении Briefcase with tools as a new open-source toolkit from Microsoft focuses on runtime security to force strict governance onto enterprise AI agents.

8 апреля 2026

Open-source набор инструментов Microsoft обеспечивает безопасность ИИ-агентов во время выполнения

7 апреля 2026

Asylon и Thrive Logic приносят физический ИИ в безопасность корпоративного периметра Управление согласием на использование файлов cookie Мы используем такие технологии, как файлы cookie, чтобы хранить и/или получать доступ к информации об устройстве. Мы делаем это, чтобы улучшить качество просмотра и показывать персонализированную рекламу. Согласие на использование этих технологий позволит нам обрабатывать данные, такие как поведение при просмотре или уникальные идентификаторы на этом сайте. Отказ от согласия или его отзыв может негативно повлиять на некоторые функции и возможности. Функциональные Функциональные Всегда активны Техническое хранение или доступ строго необходимы для законной цели обеспечения использования конкретной службы, явно запрошенной подписчиком или пользователем, либо исключительно для выполнения передачи сообщения по сети электронной связи. Предпочтения Предпочтения Техническое хранение или доступ необходимы для законной цели хранения предпочтений, не запрошенных подписчиком или пользователем. Статистика Статистика Техническое хранение или доступ используется исключительно в статистических целях. Техническое хранение или доступ, которые используются исключительно для анонимных статистических целей. Без повестки, добровольного согласия со стороны вашего интернет-провайдера или дополнительных данных от третьей стороны информация, хранимая или полученная только для этой цели, обычно не может быть использована для вашей идентификации. Маркетинг Маркетинг Техническое хранение или доступ необходимы для создания профилей пользователей для отправки рекламы или для отслеживания пользователя на одном сайте или на нескольких сайтах в аналогичных маркетинговых целях.

Посмотреть настройки

Подписаться

Весь наш премиум-контент и последние новости технологий прямо на вашу почту


Материал — перевод статьи с английского.

Оригинал: Agentic AI’s governance challenges under the EU AI Act in 2026