В партнерстве с Deloitte Microsoft Technology Practice
По мере того как AI-агенты все чаще работают вместе с людьми в разных подразделениях компаний, организации могут непреднамеренно открывать новую поверхность атаки. Небезопасных агентов можно заставить получить доступ к чувствительным системам и проприетарным данным, что повышает корпоративные риски.
В некоторых современных компаниях нечеловеческие идентичности (NHI) уже растут быстрее, чем человеческие, и с развитием agentic AI этот тренд резко усилится. Поэтому надежное управление и укрепленный фундамент безопасности критически важны.
Согласно отчету Deloitte AI Institute State of AI 2026, почти 74% компаний планируют внедрить agentic AI в течение двух лет. Однако только каждая пятая (21%) сообщает о зрелой модели управления автономными агентами. Руководители сильнее всего обеспокоены конфиденциальностью и безопасностью данных (73%); юридическими рисками, интеллектуальной собственностью и соблюдением регулирования (50%); а также возможностями governance и контролем (46%).

Компании могут даже не осознавать, что внутри их инфраструктуры агенты уже фактически получают статус полноценных участников с «ключами от королевства», создавая скрытые слепые зоны и потенциальные точки утечки. Нужна надежная control plane — единый механизм, который управляет, наблюдает и защищает то, как AI-агенты, а также их инструменты и модели, работают по всей компании.
«Control plane — это общая централизованная прослойка, которая определяет, кто может запускать какие агенты, с какими правами, по каким политикам и с использованием каких моделей и инструментов», — говорит Andrew Rafla, principal в Deloitte Cyber Practice.
«Без настоящей control plane у вас, по сути, нет возможности масштабировать агентов автономно — есть только неуправляемое исполнение, а это несет очень высокий риск», — говорит он. «Если вы не можете ответить, что сделал агент, от чьего имени, с использованием каких данных, по какой политике — и можете ли вы воспроизвести или остановить это, — у вас нет функциональной control plane».
По его словам, governance должен делать такие ответы очевидными, а не желаемыми. Governance — это то, что переводит AI-пилоты в production-сценарии. Это мост, который помогает компаниям перейти от впечатляющих экспериментов к безопасной, воспроизводимой автоматизации на уровне всей организации.
Без governance развертывания агентов не завершаются безопасным сбоем. Они дают непредсказуемые сбои в масштабе.
Deep Dive
Artificial intelligence
OpenAI бросает все силы на создание полностью автоматизированного исследователя
Эксклюзивная беседа с главным научным сотрудником OpenAI Jakub Pachocki о новой большой задаче компании и будущем ИИ.
By Will Douglas Heavenarchive page
Как Pokémon Go дает роботам-доставщикам представление о мире с точностью до дюйма
Эксклюзив: AI-спин-офф Niantic обучает новую world model на 30 млрд изображений городских ориентиров, собранных игроками.
By Will Douglas Heavenarchive page
Хотите понять текущее состояние ИИ? Посмотрите на эти графики
Согласно Stanford AI Index 2026, ИИ ускоряется, а мы не успеваем за ним.
Этот стартап хочет изменить то, как математики занимаются математикой
Axiom Math бесплатно раздает мощный новый AI-инструмент. Но еще предстоит понять, ускорит ли он исследования настолько, насколько рассчитывает компания.
By Will Douglas Heavenarchive page
Оставайтесь на связи
Иллюстрация Rose Wong
Узнавайте о специальных предложениях, главных материалах, предстоящих мероприятиях и многом другом.
Материал — перевод статьи с английского.
