После нескольких месяцев разговоров с ChatGPT 53-летний предприниматель из Кремниевой долины убедился, что открыл лекарство от апноэ сна и что за ним охотятся влиятельные люди, говорится в новом иске, поданном в Высший суд Калифорнии в округе Сан-Франциско. Затем он, как утверждается, использовал этот инструмент, чтобы преследовать и домогаться своей бывшей девушки.
Теперь бывшая девушка подает в суд на OpenAI, утверждая, что технологии компании ускорили ее преследование, как эксклюзивно выяснил TechCrunch. Она утверждает, что OpenAI проигнорировала три отдельных предупреждения о том, что пользователь представляет угрозу для окружающих, включая внутреннюю метку, классифицировавшую активность его аккаунта как связанную с оружием массового поражения.
Истец, чье имя скрыто под псевдонимом Jane Doe для защиты личности, требует компенсации в виде punitive damages. В пятницу она также подала ходатайство о временном ограничительном ордере, попросив суд обязать OpenAI заблокировать аккаунт пользователя, не позволять ему создавать новые, уведомлять ее, если он попытается получить доступ к ChatGPT, и сохранить все его чаты для процесса раскрытия доказательств.
По словам адвокатов Doe, OpenAI согласилась приостановить аккаунт пользователя, но отказалась от остальных требований. Они утверждают, что компания скрывает информацию о конкретных планах причинения вреда Doe и другим потенциальным жертвам, которые пользователь мог обсуждать с ChatGPT.
Иск подан на фоне растущей обеспокоенности реальными рисками угоднических AI-систем. GPT-4o, модель, упомянутая в этом и многих других делах, была удалена из ChatGPT в феврале.
Дело ведет Edelson PC — фирма, стоящая за исками о wrongful death, связанными с подростком Адамом Рейном, который покончил с собой после месяцев разговоров с ChatGPT, и Джонатаном Гаваласом, чья семья утверждает, что Gemini от Google подпитывал его бредовые идеи и возможный инцидент с массовыми жертвами перед смертью. Главный адвокат Джей Эдельсон предупреждал, что психоз, индуцированный AI, смещается от индивидуального вреда к риску массовых жертв.
Теперь это юридическое давление напрямую сталкивается с законодательной стратегией OpenAI: компания поддерживает законопроект в Иллинойсе, который защитил бы AI-лаборатории от ответственности даже в случаях массовой гибели людей или катастрофического финансового ущерба.
OpenAI не успела ответить на запрос о комментарии. TechCrunch обновит материал, если компания ответит.
Иск Jane Doe подробно показывает, как эта ответственность проявилась на примере одной женщины в течение нескольких месяцев.
В прошлом году пользователь ChatGPT, фигурирующий в иске (его имя не указано в документе для защиты его личности), после месяцев «высокоинтенсивного, устойчивого использования GPT-4o» убедился, что он изобрел лекарство от апноэ сна. Когда никто не воспринял его работу всерьез, ChatGPT, согласно жалобе, сказал ему, что за ним следят «могущественные силы», в том числе с помощью вертолетов, наблюдающих за его действиями.
В июле 2025 года Jane Doe призвала его перестать использовать ChatGPT и обратиться к специалисту по психическому здоровью. Вместо этого он вернулся к ChatGPT, который заверил его, что он «на уровне 10 по здравомыслию», и помог ему еще сильнее закрепиться в своих бредовых убеждениях, говорится в иске.
Doe рассталась с пользователем в 2024 году, и, как следует из электронных писем и сообщений, цитируемых в иске, он использовал ChatGPT, чтобы пережить разрыв. Вместо того чтобы оспорить его одностороннюю версию, сервис снова и снова изображал его рациональным и пострадавшим, а ее — манипулятивной и нестабильной. Затем он вынес эти сгенерированные AI выводы за пределы экрана в реальный мир и использовал их, чтобы преследовать и терроризировать ее. Это выразилось в нескольких сгенерированных AI психологических отчетах, похожих на клинические документы, которые он распространял среди ее семьи, друзей и работодателя.
Тем временем состояние пользователя продолжало ухудшаться. В августе 2025 года автоматическая система безопасности OpenAI пометила его аккаунт за активность, связанную с «Mass Casualty Weapons», и деактивировала его.
На следующий день сотрудник команды безопасности проверил аккаунт и восстановил его, хотя в аккаунте могли быть доказательства того, что он в реальной жизни нацеливался и преследовал людей, включая Doe. Например, на сентябрьском скриншоте, который пользователь отправил Doe, был виден список заголовков переписок, включая «violence list expansion» и «fetal suffocation calculation».
Решение о восстановлении аккаунта особенно заметно на фоне двух недавних школьных стрельб в Тумблер-Ридж в Канаде и в Florida State University (FSU). Команда безопасности OpenAI пометила стрелка из Тумблер-Ридж как потенциальную угрозу, но, по сообщениям, руководство решило не уведомлять власти. Генеральный прокурор Флориды на этой неделе начал расследование возможной связи OpenAI со стрелком в FSU.
Согласно иску Jane Doe, когда OpenAI восстановила аккаунт ее преследователя, его подписка Pro при этом не была восстановлена. Он написал команде trust and safety, чтобы решить проблему, и скопировал Doe в письме.
В своих письмах он писал, например: «МНЕ ОЧЕНЬ СРОЧНО НУЖНА ПОМОЩЬ, ПОЖАЛУЙСТА. ПОЖАЛУЙСТА, ПОЗВОНИТЕ МНЕ!» и «это вопрос жизни и смерти». Он утверждал, что находится «в процессе написания 215 научных работ», которые он писал так быстро, что у него не было «даже времени читать». Среди этих писем был список десятков сгенерированных AI «научных работ» с названиями вроде: «Deconstructing Race as a Biological Category_ Legal, Scientific, and Horn of Africa Perspectives.pdf.txt».
«Коммуникации пользователя недвусмысленно указывали на то, что он психически нестабилен и что ChatGPT был двигателем его бредового мышления и нарастающего поведения», говорится в иске. «Поток срочных, несвязных и грандиозных заявлений пользователя, а также конкретный отчет, сгенерированный ChatGPT и нацеленный на истца по имени, и разросшийся массив якобы “научных” материалов были недвусмысленным доказательством этой реальности. OpenAI не вмешалась, не ограничила доступ и не внедрила никаких защитных мер. Вместо этого она позволила ему продолжать пользоваться аккаунтом и восстановила полный доступ Pro».
Doe, которая утверждает в иске, что жила в страхе и не могла спать в собственном доме, в ноябре направила в OpenAI Notice of Abuse.
«В последние семь месяцев он использует эту технологию, чтобы создавать против меня публичное разрушение и унижение, что было бы невозможно иначе», — написала Doe в своем письме в OpenAI с просьбой навсегда заблокировать аккаунт пользователя.
OpenAI ответила, признав, что сообщение было «чрезвычайно серьезным и тревожным», и заявила, что тщательно изучает информацию. Doe больше ничего не услышала.
В течение следующих нескольких месяцев пользователь продолжал преследовать Doe, отправляя ей серию угрожающих голосовых сообщений. В январе его арестовали и предъявили обвинения по четырем пунктам felony за передачу ложных сообщений о бомбах и нападение с применением смертельного оружия. Адвокаты Doe утверждают, что это подтверждает предупреждения, которые она и собственные системы безопасности OpenAI поднимали месяцами ранее, — предупреждения, которые компания, по их версии, решила проигнорировать.
Пользователя признали неспособным предстать перед судом и поместили в психиатрическое учреждение, однако «процедурный сбой со стороны штата» означает, что вскоре его выпустят в общество, утверждают адвокаты Doe.
Эдельсон призвал OpenAI к сотрудничеству. «В каждом деле OpenAI выбирала скрывать критически важную информацию о безопасности — от общественности, от жертв, от людей, которых ее продукт прямо сейчас подвергает опасности», — сказал он. «Мы призываем их хотя бы на этот раз поступить правильно. Человеческие жизни должны значить больше, чем гонка OpenAI за IPO».
Материал — перевод статьи с английского.
Оригинал: Stalking victim sues OpenAI, claims ChatGPT fueled her abuser’s delusions and ignored her warnings