• Для специалистов по ИТ и ИБ
  • Публикации о нас в СМИ

Усилитель агрессии. ИИ делает хакеров сильнее, но есть способ этому противостоять

04.07.2025

автор Александр Дмитриев, генеральный директор ООО “Нейроинформ”





Масштаб влияния искусственного интеллекта на бизнес-процессы и повседневную жизнь уже сравнивают с появлением Интернета - не без оснований. ИИ в корпоративном секторе используется для автоматизации рутинных задач, анализа данных и даже принятия решений. Однако далеко не всегда он служит светлым целям. Хакеры – вот кто в числе первых научился извлекать ощутимую выгоду из нейросетей.

Уметь писать код, досконально знать топологию сетей и принципы работы сетевых протоколов, создавать эксплойты – о чём вы? Всё это теперь берут на себя специализированные «нейронки» вроде WormGPT. Невольным соучастником становится даже ChatGPT – ему пока недостаёт цифровой настороженности.

Алармизм – плохой помощник. Поэтому я не стану утверждать, что распространение ИИ массово толкает добропорядочных граждан на путь киберпреступности. Вместе с тем, можно говорить об обратном: искусственный интеллект снимает технические барьеры, которые раньше отделяли просто любопытствующих жителей Сети от доступа к действенным инструментам взлома. Это меняет саму природу рисков в сфере кибербеза. А значит, пересматривать придётся не только технологии защиты, но и саму логику доверия, доступа и реагирования.

ИИ-атаки: от элитных до массовых

Конечно, часть атак с применением ИИ по-прежнему остаётся прерогативой «технологической элиты» — тех, кто глубоко понимает принципы работы нейросетей и умеет на лету комбинировать алгоритмы. Вместе с тем, всё больше сценариев оказываются реализуемы силами обычного энтузиаста, который может посвятить глубокому изучению матчасти несколько вечеров в диалогах с нейросетью. Вот лишь некоторые из них, уже применяемые на практике.

Deepfake и voice spoofing

Наряду с текстами ИИ научился фальсифицировать голоса и образы. Сегодня вполне возможно получить видеосообщение от «CEO» в виде кружочка в Telegram, который попросит срочно перевести средства, согласовать сделку или выдать доступ. Всё выглядит убедительно: мимика, голос, фон. Такие атаки особенно опасны потому, что бьют не по инфраструктуре, а по доверию между ключевыми фигурами в компании. Подменяется не система или данные, а человек.

Социальная инженерия 2.0

ИИ позволяет создавать персонализированные фишинговые письма, от которых не спасают ни антиспам, ни здравый смысл. Генеративные модели обучаются на открытых источниках — профилях в соцсетях, интервью, корпоративных презентациях — и создают такие тексты, которые легко принять за письмо от реального коллеги, партнера или клиента. Сходство с реальной языковой личностью практически стопроцентное.

Масштабируемость делает эти атаки особенно неприятными. Если раньше на подготовку одной фишинговой схемы уходили часы или дни, теперь ИИ способен сгенерировать сотни за считанные минуты. И все они будут отличаться друг от друга, словно готовились вручную.

Перебор уязвимостей и автоматизация взлома

ИИ также применяется для сканирования инфраструктуры в поисках уязвимых конфигураций и сервисов. Он анализирует шаблоны прошлых атак и предсказывает, где вероятность успеха наиболее высока.

Это уже не «рутинный скан», а интеллектуальный процесс, который ускоряет время от нахождения слабого места до его эксплуатации. Более того, эксплойты часто подбираются автоматически — с учётом специфики цели. Так что взлом становится не только вероятнее, но и дешевле.

ИИ на стороне защиты: как меняется работа blue team

Одним словом, ИИ в кибератаках - уже не эксперимент. У атакующего теперь есть личный ассистент - усердный, технически подкованный и лишенный этических сомнений. Он не устаёт, не ошибается из-за стресса и не задаёт лишних вопросов.

А что с защитой? Можно ли говорить, что она на обочине ИИ-революции? Конечно, нет. Команды информационной безопасности всё чаще встраивают ИИ в собственные процессы, поручая ему задачи от мониторинга до анализа поведения и автоматического реагирования. И хотя технологическое «вооружение» становится симметричным, правила игры меняются: теперь соревнуются не столько специалисты, сколько архитектуры — «человек + ИИ» против «человека + ИИ».

Корпоративные кибербезопасники тоже обзаводятся инвентарём на базе ИИ. Вот ключевые направления, где искусственный интеллект и смежные технологии приносит реальную пользу.

Обнаружение аномалий и инцидентов

ИИ-модели анализируют поведение пользователей, сетевой трафик и активности на конечных точках — и выявляют отклонения, которые сложно заметить вручную.

  • UEBA (User and Entity Behavior Analytics) сигнализирует о нехарактерных действиях — например, сотрудник скачал 10 ГБ данных в 3:17 ночи.
  • NDR (Network Detection and Response) фокусируется на подозрительных сетевых взаимодействиях. Скажем, компьютер сотрудника обменивается большим объёмом icmp пакетов с внешним контрагентом.
  • EDR (Endpoint Detection and Response) помогает выявить вредоносные паттерны поведения на рабочих станциях — как у пользователей, так и у приложений. Например, указывает на попытку запустить скрипт на powershell.


Автоматизация реагирования

ИИ позволяет не просто фиксировать инциденты, но и реагировать на них в режиме реального времени.

Речь идёт о системах класса SOAR (Security Orchestration, Automation and Response), где:

  • инциденты автоматически классифицируются по критичности,
  • запускаются заранее подготовленные плейбуки,
  • заражённые узлы изолируются без участия оператора,
  • чат-боты в SOC помогают аналитикам быстро разобраться в ситуации.


Улучшение threat intelligence

ИИ-системы помогают аналитикам. Они перерабатывают огромные объёмы внешней информации — от форумов даркнета до фидов IOC. С помощью NLP-моделей он выявляет паттерны, по которым формирует сигнатуры угроз и индикаторы компрометации, часто раньше, чем они попадают в официальные базы.

Предиктивная аналитика

Наряду с отражением атак ИИ получил способность предугадывать их. Он анализирует поведение киберпреступных группировок, строит kill chains и указывает вероятные векторы проникновения. Более того, ИИ способен заметить, что злоумышленник сменил тактику, — и предупредить об этом заранее.

Дополнительный эффект от внедрения ИИ — снижение нагрузки на команды ИБ, которые хронически испытывают дефицит кадров. По данным отчёта Cybersecurity Workforce Study 2023, нехватка специалистов в сфере информационной безопасности по-прежнему превышает 4 миллиона человек по всему миру. ИИ высвобождает ресурс живых сотрудников, позволяя фокусироваться на сложных и стратегических задачах — там, где действительно важны опыт, суждение и человеческая интуиция.

Кто впереди: атака или защита?

Без иллюзий: атакующие пока впереди. У них больше гибкости: они не ограничены регуляторкой и комплаенсом. Им не нужно документировать процессы, писать отчёты или согласовывать бюджеты на закупку средств защиты. Кроме того, взлом всегда проще, чем защита: достаточно найти одну уязвимость, чтобы зайти в систему. Защитнику же приходится закрывать все пробелы - одновременно и непрерывно.

ИИ усиливает этот разрыв: он позволяет масштабировать атаки, автоматизировать их и подстраивать под цели в реальном времени. То, что раньше делал один высококлассный специалист, теперь способен выполнять алгоритм. Который, как известно, не совершает ошибок и не испытывает усталости. Но стоит признать, что и защитные решения развиваются достаточно быстро — хотя и с оглядкой на комплаенс и архитектуру.

На стороне защитников появляется важный союзник — объяснимый ИИ (XAI, eXplainable AI). Это новое поколение интеллектуальных систем, которые не только анализируют угрозы, но и объясняют, почему они приняли то или иное решение. Такой ИИ делает взаимодействие между человеком и системой более прозрачным, быстрым и интуитивным. Аналитик не просто получает предупреждение об угрозе — он видит её причины, контекст и возможные сценарии развития.

Зачем защите объяснимость?

Объяснимый ИИ меняет привычную парадигму. Вместо чёрного ящика с необъяснимым «волшебством» внутри появляется участник процесса, который способен обосновать свои решения.

Почему это важно? Потому что в традиционном сценарии всё выглядит так: ИИ-система обнаружения вторжений срабатывает, автоматически отключает сервис, SOC-аналитик приходит в замешательство — он не понимает, что именно произошло и почему система сработала. Безусловно, есть лог-файлы, которые аналитик будет анализировать, чтобы понять что произошло. Но это требует довольно большого количества времени и достаточной квалификации. А во время инцидента, когда каждая минута на счету, объяснить ситуацию руководству он не сможет. Перепроверить — тоже. Научить систему реагировать иначе в будущем невозможно, потому что не понятно, чему именно она «научена». В такой ситуации и аналитик, и CISO выглядят не как архитекторы цифровой безопасности, а как случайные пассажиры автомобиля без руля и педалей, едущего неизвестно куда.

С объяснимым ИИ всё иначе. Он способен пояснить логику своих действий: «Мы считаем активность подозрительной, потому что пользователь скачал объём данных, превышающий обычный в 15 раз, и сделал это с нового IP-адреса, зарегистрированного в Северной Корее».

Это не просто объяснение - инструмент доверия, отладки и обучения. Такие системы не заменяют человека, а помогают ему быть убедительным, особенно там, где за нарушение бизнес-процессов, клиентского сервиса и ущерб репутации большой спрос.

XAI: условие доверия

Пара слов о примерах применения и неприменения XAI. Крупный e-commerce в Европе внедрил систему поведенческого анализа (UEBA) на базе машинного обучения. Однажды под утро система зафиксировала скачивание большого объёма данных по поставщикам — и выдала высокий уровень риска. SOC-команда уже готовилась к принудительной блокировке пользователя, но перед этим обратилась к объяснению, предоставленному XAI-модулем.

ИИ пояснил: да, объём скачивания нетипичный, время — ночное, но:

  • действия велись из корпоративной сети,
  • сотрудник регулярно проявлял подобную активность в период квартальных отчётов,
  • файл был получен в рамках согласованных прав доступа.

Звонок руководителю отдела подтвердил версию: сотрудник работает в гибком графике, никаких нарушений не было. Инцидент закрыт как ложное срабатывание, без эскалации, без потерь, без потока писем с пометкой «красный уровень».

А вот противоположная история — из США. Крупный международный банк использовал DLP-систему с ИИ-модулем без XAI-компонента. В какой-то момент система начала блокировать внутренние письма с договорами и техдокументацией, предназначенными для контрагентов. Никаких пояснений не предоставлялось. Аналитики SOC не могли понять, почему блокировка срабатывает — модель была «чёрным ящиком». В результате часть сделок сорвалась, клиенты ушли. По внутренней оценке, убытки составили почти $5 млн. Контракт с вендором DLP был расторгнут, система — заменена на аналог с XAI.

Оба кейса говорят: в информационной безопасности недостаточно просто «включить ИИ» и надеяться, что всё будет хорошо. Если мы хотим доверять интеллектуальным системам, они должны быть способны объяснить свою логику. Особенно в тех случаях, когда на кону бизнес-процессы, репутация и деньги. Объяснимый ИИ становится не техническим излишеством, а архитектурным стандартом зрелых ИБ-сред. Потому что в кибербезе, как и в жизни: важно не только «что», но и «почему».

Когда старые принципы работают лучше новых технологий

Пока вендоры развивают объяснимый ИИ и учатся делать его доступным по цене, не стоит забывать про подходы, которые зарекомендовали себя ещё до эры машинного обучения. Один из них — Zero Trust.

В его основе лежит почти философская идея: никакого доверия без проверки. Ни к пользователю, ни к приложению, ни к соединению, ни к протоколу. И даже после проверки - доверие не постоянное, а пересматриваемое. Этот принцип звучит особенно актуально сейчас, когда ИИ позволяет атакующим маскироваться, адаптироваться и подделывать контекст.

Вот почему Zero Trust остаётся надёжным заслоном даже в условиях повсеместного применения ИИ:

  • Минимальные привилегии. Даже если доступ получен, он ограничен рамками конкретной задачи. Это не даёт атакующему (или вредоносному ИИ) развернуть «ковровую атаку» по всей инфраструктуре. Автоматизация взлома смысла не имеет, если нечего взламывать дальше.
  • Контроль по поведению. Классический UEBA на базе ML отлично сочетается с архитектурой Zero Trust. Даже авторизованный пользователь будет под наблюдением — атипичные действия, подозрительные паттерны, смена устройств или времени активности вызовут повторную проверку.
  • Многофакторность + непрерывная аутентификация. ИИ может подделать голос, украсть пароль, даже имитировать манеру письма. Но ему всё ещё сложно воссоздать поведенческий контекст: привычное устройство, геолокация, ритм действий. На что в рамках Zero Trust и делается ставка.
  • Микросегментация. Даже если вредонос проник внутрь, он не сможет двигаться дальше, когда каждая зона сети изолирована, а каждый доступ требует отдельного разрешения. Это разрывает цепочку атаки, делает внутреннее продвижение злоумышленника трудозатратным и легко отслеживаемым.

Возможно, это прозвучит громко. Но Zero Trust в большей степени философия, и именно поэтому он адаптируется под любую технологическую среду — будь то традиционная инфраструктура или ИИ-экосистема. Пока всё меняется, Zero Trust остаётся якорем устойчивости: не даёт увлечься слепой автоматизацией и сохраняет принцип «доверяй, но проверяй» в самом буквальном его смысле.

Заключение: доверять нельзя без проверки

На фоне угроз, подпитываемых ИИ, архитектура Zero Trust обретает новое стратегическое значение. Но, как и многое в кибербезе, эффективность подхода обеспечивается реальным внедрением. Нелишним будет дополнять Zero Trust ИИ-инструментами. Особенно в тех зонах, где требуется анализ поведения, контекста доступа и нестандартной активности. Об этом говорят примеры из зарубежной практики.

Звучит странно: Zero Trust — это защита от избыточного доверия. но если разобраться, то именно доверие становится сегодня главной мишенью хакеров. С помощью ИИ можно подделать личность, имитировать голос, воспроизвести стиль общения и даже фальсифицировать отношения внутри компании. В такой реальности отказ от доверия по умолчанию — уже не рекомендация, а рациональный выбор.

И если представить себе гипотетическую систему безопасности будущего — AI-as-a-Security, то есть довольно весомая вероятность, что её ядром тоже будет Zero Trust. Просто потому, что вопросы доверия в безопасности не устаревают. В отличие от технологий, которые применяются злоумышленниками, чтобы испытывать доверие на прочность день за днем.

Источник по ссылке

Автоматическая киберзащита
для вашего бизнеса

Регулярный контроль чувствительных данных компании, понятные отчёты и экспертная поддержка с точными рекомендациями.

  • Для специалистов по ИТ и ИБ
  • Публикации о нас в СМИ
наш блог

о нас много говорят клиенты, эксперты, сми и партнеры

начните защищать свою компанию, данные и инфраструктуру и получать выгоды от автоматизации киберзащиты

Подписка
Будьте на связи

Для получения полезных материалов и последних новостей, введите свое имя и электронную почту
Кибербезопасность для бизнеса простым языком — подписывайтесь на наш телеграм канал! Подписаться