Когда вредоносное ПО с использованием ИИ сталкивается с DDoS-атаками: новый вызов для онлайн-устойчивости.

Кибератака с использованием искусственного интеллекта (ИИ) стала новой угрозой безопасности
В большинстве отраслей дискуссии об искусственном интеллекте сводятся к четырем темам: этическим вопросам, возвращению инвестиций, опасениям о замещении людей машинами и растущем потреблении энергии. В кибербезопасности же картина выглядит совершенно иначе. Здесь ИИ уже стал мощным оружием в руках злоумышленников, что поддерживает кампании по распространению программ-вымогателей (ransomware) и позволяет создавать вредоносный софт, обходить CAPTCHA (задачи для различения человека от бота), а также организовывать разрушительные DDoS-атаки.
Исследование MIT Sloan показало, что в 2023–2024 годах уже 80% атак с использованием программ-вымогателей опирались на ИИ каким-либо образом. А к концу следующего года тенденция ускорится ещё сильнее. Специализированные модели вроде GhostGPT, лишенные этических ограничений, сегодня легко доступны для широкого спектра кибепреступлений — от написания писем-фишинга до генерации вредоносного кода и создания мошеннических сайтов.
Примеры применения ИИ атакующей стороной показывают масштаб использования этой технологии. Это делает традиционные защитные механизмы значительно менее эффективными. В том числе это касается защиты от DDoS-атак, которые становятся всё более изощренными.
DDoS-атаки могут иметь различные формы, но самыми сложными для нейтрализации являются атаки на уровне приложения (L7). Они перегружают веб-серверы легитимным трафиком, что затрудняет их обнаружение и блокировку. К тому же повсеместное использование HTTPS делает ещё сложнее разделение вредоносных запросов от обычной пользовательской активности: практически весь трафик зашифрован.
Многие годы основным способом противодействия была задача различения людей от ботов и блокировка последних через CAPTCHA – решение задач вроде клика по квадрату, ввода искаженного текста или распознавания дорожных знаков. Считалось, что люди могут легко выполнить такие задания, в то время как боты окажутся недостаточно компетентными. Однако это предположение утратило свою актуальность: сегодня злоумышленники оснастили свой софт искусственным интеллектом, позволяющим не только обходить CAPTCHA, но и незаметно интегрироваться в легитимный трафик, тем самым формируя ботнеты.
Это подтверждается исследованиями, включая прошлогоднюю работу ученых из ETH Zurich, которые создали ИИ-модель для решения популярной версии Google reCAPTCHA v2 (с велосипедами, мостами и другими изображениями), успешно справившись с этой задачей наравне с людьми. В итоге защитники уже не могут надёжно отличить пользователя от бота: современные технологии настолько продвинулись, что способны имитировать поведение обычного человека.
Подобная ситуация обостряет угрозы безопасности для всех организаций. Однако наиболее ощутимые последствия испытают крупные предприятия, риски для которых выходят за рамки кратковременного нарушения работы и могут включать финансовые потери в размере миллиардов долларов ежегодно. Успешная DDoS-атака, управляемая искусственным интеллектом, способна привести к серьезным последствиям: от крупных утечек данных до длительной остановки критически важных сервисов. В результате компании сталкиваются с необходимостью инвестировать значительные средства в защиту своих сетей, а также пересматривать подходы к кибербезопасности.
В заключение стоит подчеркнуть важность непрерывного мониторинга угроз и готовности к быстрому реагированию на изменения в методах атак, чтобы сохранить целостность и надежность информационных систем организаций всех масштабов.
