OpenAI представила Child Safety Blueprint для борьбы с ИИ-эксплуатацией детей

8 апреля 2026 года

БезопасностьГлобальные вопросы

Introducing the Child Safety Blueprint

Основа для борьбы с ИИ-опосредованной сексуальной эксплуатацией детей и ее предотвращения

Читать документ (открывается в новом окне)

Сексуальная эксплуатация детей — одна из самых неотложных проблем цифровой эпохи. ИИ стремительно меняет и то, как такие злоупотребления возникают в отрасли, и то, как их можно масштабно предотвращать.

В OpenAI мы создали и продолжаем усиливать защиту от злоупотребления нашими системами, а также тесно работаем с такими партнерами, как National Center for Missing and Exploited Children (NCMEC), и правоохранительными органами, чтобы улучшать выявление и отчетность. Эта работа помогла выявить, где отрасли нужны более строгие общие стандарты.

Сегодня мы представляем политический blueprint, который очерчивает практический путь к укреплению американских рамок защиты детей в эпоху ИИ. В этот blueprint вошли отзывы нескольких ведущих организаций и экспертов из экосистемы детской безопасности, включая NCMEC, Attorney General Alliance и сопредседателей ее AI Task Force — генерального прокурора Северной Каролины Джеффа Джексона и генерального прокурора Юты Дерека Брауна — а также Thorn, чтобы документ отражал их приоритеты и мог способствовать более эффективному сотрудничеству для предотвращения вреда детям.

Blueprint сосредоточен на трех ключевых приоритетах: модернизации законов для борьбы с AI-generated и altered CSAM, улучшении отчетности провайдеров и координации для более эффективных расследований, а также внедрении мер safety-by-design непосредственно в ИИ-системы для предотвращения и обнаружения злоупотреблений.

Ни одна отдельная мера не может решить эту проблему в одиночку. Этот framework объединяет правовые, операционные и технические подходы, чтобы лучше выявлять риски, ускорять реакцию и обеспечивать подотчетность, сохраняя при этом сильные полномочия правоохранительных органов по мере развития технологий.

Вместе эти шаги позволяют отрасли раньше и эффективнее реагировать на угрозы детской безопасности. Пресекавая попытки эксплуатации раньше, улучшая качество сигналов, отправляемых правоохранительным органам, и укрепляя подотчетность по всей экосистеме, этот framework призван предотвращать вред до его возникновения и помогать быстрее обеспечивать защиту детей, когда возникают риски.

«Как сопредседатели AI Task Force Attorney General Alliance, мы приветствуем этот blueprint как значимый шаг к тому, чтобы привести практики детской безопасности в технологическом секторе в соответствие с реалиями правоприменения, с которыми наши офисы сталкиваются каждый день. Особенно нас воодушевляет признание в framework того, что эффективные safeguards для GenAI требуют многоуровневой защиты — не одного технического контроля, а сочетания обнаружения, механизмов отказа, человеческого надзора и постоянной адаптации к новым моделям злоупотреблений. Это отражает то, что мы видим на практике: угроза постоянно меняется, а статических решений недостаточно. Наладить архитектуру предотвращения на раннем этапе — это самая высокоэффективная инвестиция, которую отрасль может сделать в детскую безопасность.

В конечном счете сила любой добровольной рамки зависит от конкретики ее обязательств и готовности отрасли нести за них ответственность. Мы рассчитываем на дальнейшее партнерство с OpenAI, NCMEC и нашими коллегами-генеральными прокурорами, чтобы эти рекомендации превратились в долговременную защиту для детей».

— Генеральные прокуроры штатов Джефф Джексон (Северная Каролина) и Дерек Браун (Юта), сопредседатели AI Task Force в составе Attorney General Alliance.

«Attorney General Alliance задает тон в защите молодых людей онлайн, объединяя генеральных прокуроров, лидеров отрасли, некоммерческие организации и глобальных партнеров для продвижения практических, ориентированных на будущее решений в области ИИ и цифровой безопасности. Благодаря сотрудничеству и инновациям AGA устанавливает высокий стандарт того, как мы защищаем молодежь, ответственно принимая новые технологии. Мы приветствуем неизменную приверженность OpenAI безопасности и взаимодействию с AGA и генеральными прокурорами при разработке чрезвычайно ценного blueprint для детской безопасности».

— Карен Уайт, исполнительный директор Attorney General Alliance

«Generative AI ускоряет преступления, связанные с онлайн-сексуальной эксплуатацией детей, крайне тревожным образом — снижая барьеры, увеличивая масштаб и создавая новые формы вреда. Но вместе с тем National Center for Missing & Exploited Children (NCMEC) воодушевлен тем, что такие компании, как OpenAI, задумываются о том, как проектировать эти инструменты более ответственно, с safeguards, встроенными с самого начала. Ни одна организация, компания или сектор не способны решить эту проблему в одиночку. Мы по-прежнему готовы работать с партнерами из индустрии, правительства и сообщества по защите детей, чтобы продвигать решения, которые снижают вред и лучше поддерживают безопасность детей».

— Мишель ДеЛоун, президент и CEO, National Center for Missing & Exploited Children

Author

Keep reading

Представляем OpenAI Safety Fellowship Safety 6 апр. 2026

Промышленная политика для эпохи Intelligence Age

Industrial policy for the Intelligence Age Global Affairs 6 апр. 2026

Helping disaster response teams turn AI into action across Asia Global Affairs 29 мар. 2026


Материал — перевод статьи с английского.

Оригинал: Introducing the Child Safety Blueprint