Когда ChatGPT стал доступен широкой публике в конце 2022 года, многие впервые увидели, насколько легко генеративный AI может выдавать большие объемы текста, похожего на человеческий, по простым запросам. Это быстро привлекло внимание преступников, которые вскоре начали использовать большие языковые модели для создания вредоносных писем — как массового спама, так и более изощренных целевых атак, рассчитанных на кражу денег и конфиденциальной информации.
С тех пор киберпреступники начали использовать AI-инструменты, чтобы усиливать свои операции. Они применяют технологию для всего: от написания фишинговых писем и создания гиперреалистичных, убедительных deepfake-роликов до доработки вредоносного ПО (обычно называемого malware), чтобы его было сложнее обнаружить. Они также могут использовать AI для автоматизации поиска уязвимостей в сетях и компьютерных системах, быстрого генерации вымогательских записок и анализа огромных массивов украденных данных, чтобы выявить самое ценное.
Влияние AI на сам процесс взлома не так однозначно. Но мы действительно знаем, что AI снижает барьеры для потенциальных атакующих, давая им постоянно расширяющийся набор новых возможностей и делая попытки проникновения в цели быстрее, дешевле и проще, чем когда-либо. Например, мошеннические центры по всей Юго-Восточной Азии внедряют недорогие AI-инструменты, чтобы быстрее нацеливаться на большее число возможных жертв и оперативно переносить деятельность в новые локации, предупреждал Interpol. Аналогично, Объединенные Арабские Эмираты недавно заявили, что сорвали серию туманных AI-атак на свои критически важные сектора. А поскольку такие массовые, беспорядочные атаки можно штамповать в колоссальном масштабе, им не обязательно быть особенно сложными, чтобы сработать, — достаточно просто попасть в машину, которая оказалась незащищенной, или в почтовый ящик ничего не подозревающей жертвы в нужный момент.
Многие организации уже с трудом справляются с огромным количеством атак, которым они подвергаются. Проблема, вероятно, значительно усугубится, поскольку все больше преступников будут пытаться испытать удачу, а возможности общедоступных generative AI-систем продолжат улучшаться. Ранее в этом месяце AI-компания Anthropic заявила, что Mythos — модель, которую она разработала и сейчас тестирует, — нашла тысячи критических уязвимостей, включая некоторые в каждой крупной операционной системе и веб-браузере. Anthropic говорит, что все они были исправлены, но из-за новых возможностей откладывает выпуск модели и создала консорциум технологических компаний под названием Project Glasswing, который, по ее словам, тем временем попробует использовать эти возможности в оборонительных целях.
Сейчас исследователи кибербезопасности оптимистично считают, что более небрежные атаки можно отражать с помощью базовых мер защиты, и это подчеркивает, насколько важно своевременно устанавливать обновления ПО и соблюдать сетевые протоколы безопасности. Насколько хорошо мы будем готовы отражать более изощренные атаки в будущем, пока гораздо менее ясно.
Deep Dive
Artificial intelligence
OpenAI бросает все силы на создание полностью автоматизированного исследователя
Эксклюзивный разговор с главным научным сотрудником OpenAI Якобом Пахоцки о новой большой цели компании и будущем AI.
Как Pokémon Go дает доставочным роботам точное представление о мире
Эксклюзив: AI-спин-офф Niantic обучает новую мировую модель, используя 30 миллиардов изображений городских ориентиров, собранных игроками.
Хотите понять текущее состояние AI? Посмотрите на эти графики
Согласно AI Index Stanford за 2026 год, AI мчится вперед, а мы не успеваем за ним.
Этот стартап хочет изменить, как математики занимаются математикой
Axiom Math бесплатно раздает мощный новый AI-инструмент. Но еще предстоит понять, ускорит ли он исследования так сильно, как надеется компания.
Материал — перевод статьи с английского.
Оригинал: Supercharged scams
