Принципы OpenAI: демократия, расширение возможностей, всеобщее процветание, устойчивость и адаптивность

Прослушать статью

Автор: Sam Altman

ИИ способен значительно улучшить многие аспекты общества.

Эта технология, как и предыдущие, даст людям больше возможностей и самостоятельности; то, что люди смогут делать с помощью ИИ, намного превзойдет то, что было возможно с паровыми машинами или электричеством.

Мы видим мир с широким процветанием на уровне, который сейчас трудно представить, и мир, в котором заметно растут личный потенциал, автономия и ощущение полноты жизни. Многие вещи, о которых мы позволяли себе мечтать только в sci-fi, могут стать реальностью, а большинство людей смогут жить более осмысленной жизнью, чем сегодня.

Но такой исход не гарантирован. Власть в будущем может либо оказаться в руках небольшого числа компаний, которые используют и контролируют superintelligence, либо быть децентрализованной и принадлежать людям. Мы считаем, что второй вариант намного лучше, и наша цель — дать truly general AI в руки как можно большего числа людей. Как и настоящее, будущее не будет ни полностью плохим, ни полностью хорошим, но решения, которые мы принимаем сейчас, могут помочь максимизировать хорошее.

Наша миссия — обеспечить, чтобы AGI приносил пользу всему человечеству. Вот принципы, которые направляют нашу работу.

Демократизация. Мы будем противодействовать тому, чтобы эта технология концентрировала власть в руках немногих.

Это означает, что помимо предоставления всем доступа к AI мы должны обеспечить, чтобы ключевые решения о AI принимались через демократические процессы и на основе эгалитарных принципов, а не только AI labs.

Расширение возможностей. Мы считаем, что AI может дать каждому возможность достигать своих целей, больше учиться, быть счастливее и более реализованным, а также следовать своим мечтам, и что общество в целом выиграет от этого.

Чтобы этого достичь, нужно позволить людям исследовать огромный потенциал, который перед нами открыт, и нам необходимо создавать продукты, которые это обеспечивают. Пользователи должны надежно уметь выполнять с нашими сервисами все более ценные задачи.

Мир разнообразен, и у людей разные потребности. Мы хотим давать пользователям ту автономию, которая им нужна, и позволять как можно больше там, где это разумно.

Хотя мы хотим предоставлять пользователям очень широкую свободу в том, как они используют наши сервисы, и твердо верим, что в целом AI принесет огромную пользу, у нас есть обязанность создавать и внедрять его так, чтобы минимизировать вред. Это включает, разумеется, предотвращение катастрофического вреда, но также минимизацию локального вреда и предотвращение потенциальных разрушительных общественных эффектов. Это означает осторожность в условиях неопределенности и смягчение ограничений по мере появления новых данных.

Всеобщее процветание. Мы хотим будущего, в котором у каждого будет отличная жизнь.

Если дать удобные AI-системы с большой вычислительной мощностью в руки всем, мы считаем, что люди найдут новые способы создавать ценность и радикально улучшать качество жизни для всех, особенно за счет открытия новой науки.

Чтобы процветание стало полноценным и было широко разделено, мы считаем, что 1) нашим правительствам, возможно, придется рассмотреть новые экономические модели, чтобы каждый мог участвовать в создании ценности, которая перед нами открывается, и 2) нам нужно построить огромные объемы AI infrastructure и разработать новые технологии, чтобы резко снизить стоимость AI infrastructure.

Многие вещи, которые мы делаем и которые выглядят странно — покупка огромных объемов compute при относительно небольшой выручке, vertical integration, чтобы снизить издержки и сделать нашу технологию проще в использовании, стремление строить datacenters по всему миру и многое другое — обусловлены нашей фундаментальной верой в будущее всеобщего процветания.

Устойчивость. AI создаст новые риски, и мы будем работать с другими компаниями, экосистемами, правительствами и обществом, чтобы решать их. Для поддержки этой работы мы будем в значительной степени использовать ресурсы нашего Foundation.

Ни один AI lab не может в одиночку обеспечить хорошее будущее. Например, могут появиться чрезвычайно мощные модели, которые облегчат создание нового патогена, и нам нужен общественный подход к защите с помощью pathogen-agnostic countermeasures. Другой пример: по мере роста cybersecurity-возможностей моделей нам нужно быстро использовать эти модели, чтобы помогать защищать open-source software и критическую инфраструктуру, одновременно обучая модели помогать всем создавать более безопасное ПО.

Это развитие нашей давней стратегии iterative deployment; мы считаем, что обществу нужно сталкиваться с каждым последующим уровнем возможностей AI, понимать его, интегрировать и вместе находить лучший путь вперед. Это нельзя делать в вакууме: общество и технология co-evolve, и на это нужно время.

Мы не считаем это нашей единственной стратегией безопасности; нам также нужно создавать безопасные системы и продолжать хорошо работать над technical alignment.

Мы ожидаем, что на некоторых этапах нам потребуется сотрудничать с правительствами, международными агентствами и другими AGI-инициативами, чтобы убедиться, что мы достаточно решили серьезные проблемы alignment, safety или общественные проблемы, прежде чем двигаться дальше в нашей работе.

Адаптивность. Мы по-прежнему считаем, что единственный способ справиться с вызовами очень непредсказуемого будущего — быть готовыми обновлять наши позиции по мере того, как мы узнаем больше. Мы также признаем, что OpenAI сегодня гораздо более значимая сила в мире, чем несколько лет назад, и мы будем прозрачно объяснять, когда, как и почему меняются наши операционные принципы. В качестве конкретного примера: хотя мы по-прежнему уверены, что всеобщее процветание останется очень важным, мы можем представить периоды в будущем, когда нам придется обменивать часть расширения возможностей на большую устойчивость.

Развитие AI принесло много сюрпризов, и впереди их еще больше. По мере развития технологии ее emergent behaviors будет все труднее предсказывать. Мы принимаем эту неопределенность, осторожно наращивая возможности, внедряя системы итеративно и учась на их взаимодействии с миром.

Не так давно мы опасались выпускать веса GPT‑2, потому что не были уверены, как это повлияет на общество. Очевидно, задним числом это оказалось необоснованным страхом, но он привел нас к стратегии iterative deployment, которая стала одной из важнейших находок.

__

Мы вступаем в очень значимый этап по мере того, как технология продолжает улучшаться. Нас совершенно справедливо можно критиковать за каждое решение; мы заслуживаем огромного внимания с учетом того, чем занимаемся. Мы не во всем будем правы, но будем быстро учиться и корректировать курс.

Мы намерены сделать свой вклад в то, чтобы будущее было лучше прошлого; нам повезло заниматься настолько важной работой.

Автор

Sam Altman

Продолжить чтение

Introducing ChatGPT Images 2.0 Product Apr 21, 2026

Scaling Codex to enterprises worldwide Company Apr 21, 2026

The next phase of enterprise AI Company Apr 8, 2026


Материал — перевод статьи с английского.

Оригинал: Our principles