ШІ на службі хакерів. Перегони озброєнь виходять на новий рівень: як захиститися
Поліморфні AI-атаки стали новим стандартом. Алгоритми переписують шкідливий код у реальному часі, обходячи антивіруси. Сигнатура вірусу змінюється кожні кілька секунд. Це схоже на хамелеона, який постійно адаптує колір, розповів Ярослав Гордійчук.
Інший напрям розвитку - автоматизований пошук вразливостей. AI-боти діють як нескінченні сканери, що перевіряють периметр компанії 24/7. Виявити "відкрите вікно" простіше, ніж будь-коли. Алгоритм знаходить лазівку в захисті швидше за адмінів. Експерт згадує публікацію Forbes, в якій наводиться приклад британського кіберзлочинця, відомого як GTG-5004, який так використав Claude. Соціальна інженерія 2.0: відеодіпфейки та "фейкові співробітники"
Сучасна соціальна інженерія 2.0 не намагається змусити людину натиснути на посилання. Це повноцінна симуляція особистості.
"Алгоритми створюють переконливі діпфейки в бізнесі, де, здавалося б, "начальник" просить терміново погодити платіж. Під час дзвінків шахраї використовують клонування голосу (vishing), моделюючи практично ідеальну копію тембру", - пояснює Ярослав Гордійчук.
За словами експерта, ще один тип атаки - відеодіпфейки, що генеруються через Face Swap технології. У всіх на слуху приклади з реального життя, коли північнокорейські хакери проходили співбесіди до американських і європейських IT-компаній, використовуючи цифрові маски. На екрані - людина, яка усміхається, киває, відповідає на питання. Але це лише голограма, створена в реальному часі. Після найму фейкові співробітники отримували доступ до репозиторіїв та впроваджували приховані бекдори. Гіперперсоналізація фішингу
ChatGPT дозволив шахраям писати листи без помилок, адаптуючи стиль під людину. Текст виглядає максимально натурально, бо враховується спосіб спілкування у соцмережах. Це вже не масова розсилка, а "точковий удар" полювання на конкретну особу. Загроза для державних структур та дезінформація
На макрорівні AI здатен прискорити інформаційний хаос. Експерт зазначив, що це проявляється у:
- генерації фейкових новин;
- підробці документів;
- фабрикації відео;
- маніпуляціях на фондовому ринку;
- копіюванні заяв посадовців;
- поширенні хаотичного контенту для дестабілізації ситуації.
Захист від AI-хакерів можливий лише через контратаку технологіями. EDR-системи вже працюють за поведінковим аналізом, відстежуючи підозрілі дії, а не файли. У роботі з персоналом важливо застосовувати особисті співбесіди або інструменти для виявлення діпфейків у реальному часі, акцентує Гордійчук.
"Побудова архітектури Zero Trust допомагає мінімізувати ризики. "Нікому не довіряй" і обмежуй доступ співробітників до критично потрібного рівня. Це важливо, враховуючи інсайдерські загрози, які зросли разом із новими можливостями маскування", - пояснює він.
Як зазначає експерт, ми не можемо зупинити розвиток AI, але мусимо адаптувати правила та змінити підхід. Пасивні методи давно застаріли. Потрібен активний моніторинг, перевірка особистостей та постійна верифікація того, що відбувається на екрані.
"Реальність більше не гарантує правди. Її доводиться підтверджувати", - підсумував Ярослав Гордійчук.