Помните, как Арни сказал: «Я вернусь!» в фильме «Терминатор». Он точно вернулся, но это не так по-голливудски, как вы думаете. «КИБЕРВСЕЛЕННАЯ» несёт угрозу куда хуже, чем у роботов-изгоев Скайнета, которые ведут свою собственную цель по захвату мира. Речь идёт о кибератаках, основанных на ИИ.
Ну, Арни пытался нас предупредить, и по мере того как мы приближаемся к 2026 году, предупреждения становятся реальностью, а вымысел становится фактом.
Прошло всего несколько дней с начала 2026 года, и мы стали свидетелями, как российские оружейные компании стали мишенью кибератак, управляемых ИИ, наряду с громкими инцидентами, такими как атака BSOD кампании ClickFix и взлом NordVPN.
Можно с уверенностью сказать, что будущее кибербезопасности в 2026 году сопровождается рисками безопасности больших языковых моделей, угрозами личным данным и безопасности, атаками программ-вымогателей и многим другим.
Если вы считаете, что файрвол и антивирус достаточно для предотвращения этих атак, то, вероятно, вы ещё не отказались от Windows Vista, и пришло время это сделать.
В этом году требуется серьёзный анализ кибербезопасности и готовая команда по тушению пожаров, чтобы противостоять плохому искусственному интеллекту в киберпреступности.
1: Автоматизированное взлом с использованием ИИ: Утечка входа:
Раньше, когда кто-то пытался взломать ваши учетные данные, это занимало дни и требовало больших умственных усилий.
Но теперь кибератаки с помощью машинного обучения стали трендом сезона.
Да. Всё это началось, когда невинный фреймворк пен-тестирования, или инструмент тестирования на проникновение, часто используемый для проверки безопасности, попал в руки хакеров.
То, что изначально использовалось этичными хакерами для тестирования безопасности, теперь применяется хакерами и злоумышленниками для проникания в ваши системы методом перебора силы.
Злоумышленники используют автономных агентов ИИ в паре с LLM. Они работают в тандеме: агент ИИ выполняет свою задачу, а LLM поддерживает агента ИИ необходимой информацией.
И вот тут начинается интересно: эти кибератаки, управляемые ИИ , возглавляются агентами ИИ, которые идентифицируют страницы входа и мгновенно анализируют HTML для полей учетных данных, форм входа и пытаются захватить идентификаторы, пароли и OTP.
Теперь, когда информация собрана, атаки проводятся двумя основными способами;
При атаках методом грубой силы пытаются создать несколько паролей для одного и того же идентификатора. Но это почти бесполезно из-за политики трёх ударов. В этом случае вы или злоумышленник можете оказаться заблокированы в системе после трёх неудачных попыток входа.
Но в случае попытки использовать пароль всё совсем иначе и эффективно. Атака перебором паролей, хотя и является низкой и медленной атакой, пытается использовать один распространённый пароль на тысячах аккаунтов, чтобы обойти политику трёх ударов.
Подумайте об этом так.
Помните тех беспомощных, но надоедливых продавцов книг по самопомощи от двери к двери?
Атака перебором паролей — это что-то в этом роде, только вместо того, чтобы стучать в одну дверь, пока владелец не сойдёт с ума и не вызовет полицию (политика трёх ошибок), он звонит во все колокольчики на квартале одинаковым тоном.
Охрана игнорирует его, потому что он не пристает к одному человеку, чтобы тот выглядел «фишингово»... Видите, что мы сделали?
Теперь, когда мы изучаем Кибервселенную и мир кибератак на базе ИИ, этот продавец — автономный агент. Этот агент не ищет «НЕТ». Для этого агента «НЕТ» означает «Следующая возможность», пока один из них не оставит дверь открытой.
Именно этот медленный, но терпеливый процесс позволяет кибератакам с использованием машинного обучения взламывать крупные сети, не вызывая при этом никаких предупреждений или тревоги. Человеку на это требуются часы. Агент ИИ с LLM способен запустить атаки на вход в систему за считанные минуты, используя фреймворк для пентестинга и автоматизируя весь рабочий процесс.
2: Кибератаки, управляемые ИИ, вымогатели и атаки «Prompt Lock».
Мы живём в волне полиморфных, генеративных программ-вымогателей, которые не только быстры, но и ведут себя как оборотень в Кибервселенной.
Если это вызвало у вас тошноту, продолжайте читать.
То, что начиналось как исследовательский проект под названием Prompt Lock, теперь стало прибыльной бизнес-моделью среди киберпреступников. Здесь агенту ИИ даются базовые инструкции, и он может организовать целую атаку вредоносного ИИ.
И всё это независимо от человеческого вмешательства.
Это год атак социальной инженерии ИИ, которые повышают ставки с автономными агентами. Они, то есть агент ИИ и LLM, работающие вместе, не будут атаковать вслепую, а планируют всю свою миссию, анализируют целевые системы и предоставляют злоумышленнику «буфет» личных данных — чувствительных данных, даже намекают, какая информация ценна для вымогательства.
Когда план записан и время наступает, агент запускает атаки, в ходе которых файлы шифруются, запускаются вредоносные коды, а данные выводятся, чтобы заблокировать вас или угрожать стереть все ваши данные.
Эти атаки могут быть довольно персонализированными. Это означает, что фишинговое письмо может быть отправлено вам настолько убедительно, что вы сочтёте его безобидным и знакомым, и именно здесь начинается утечка.
А самое худшее? Код постоянно меняется, как оборотень. Это делает обнаружить его практически невозможным для любой традиционной системы безопасности.
Эти полиморфные генеративные кибератаки на базе ИИ и все остальные связанные операции выполняются в облаке, что делает эту модель сложной киберпреступной системой вымогателей как услугой.
3: ИИ-фишинговые атаки — очень личные, очень интуитивные по неправильным причинам.
Старые добрые фишинговые мошенничества, теперь работают на ИИ.
Когда речь заходит о фишинговых мошенничествах, главный признак — это плохая грамматика, странный словарный запас, ужасные орфографические ошибки или просто странное чувство по этому поводу. Да?
А теперь представьте: что если это придёт к вам самым легитимным образом и вы действительно поверите, что это из подлинного источника?
Хорошо, а теперь вот что произошло прямо перед тем, как ты нажал на ссылку «Фишинг».
Фишеры используют LLM из Дарквеба для создания чётких, свободных и читаемых писем почти на любом выбранном вами языке.
Это устраняет первое и самое громкое подозрение.
Теперь им осталось только скопировать это письмо, вставить его и наконец отправить тому, на кого они хотят напасть.
Когда мы говорим о LLM, мы не имеем в виду такие LLM, как ChatGPT, Gemini и подобные.
Эти другие формы LLMS существуют в даркнете без ограничений и ограничений против вредоносного использования и представляют серьёзную угрозу безопасности больших языковых моделей.
Что самое худшее в этих фишинговых атаках на ИИ?
Если эти злоумышленники действительно хотят тебя поймать, они могут персонализировать свои электронные письма и отправить этих ИИ-агентов искать твои аккаунты в соцсетях и всё твоё присутствие в интернете.
Письма будут выглядеть настолько гиперперсонализированными, что вы даже можете убедить себя, будто действительно что-то подписали и забыли.
4: Киберугрозы дипфейков и история голоса стоимостью 35 миллионов долларов:
Искусственный интеллект в киберпреступности действительно оживил метафору «Вкладывать слова в рот».
Да. Всё, что этим злоумышленникам нужно — это трехсекундная запись вашего голоса или вашего видео. Как только это вводится в генеративный ИИ, он буквально повторяет всё, что связано с вами. Теперь всё, что нужно злоумышленнику — придумать скрипт.
И если вы думали, что отключение всех аккаунтов в соцсетях, удаление голоса с голосовой почты и жизнь как «Патрик» под камнем поможет спасти вас от дипфейковых киберугроз, возможно, стоит подумать ещё раз.
В одном случае кибератак, вызванных ИИ , в 2021 году, по данным IBM, был проведён аудиодипфейк.
В этом инциденте с дипфейками киберугрозами злоумышленник, якобы выдавший себя за своего начальника, попросил сотрудника перевести ему 35 миллионов долларов на определённый счёт. Угадайте что?
Наивный и невежественный сотрудник поверил, что злоумышленник и компания потеряла 35 миллионов долларов просто так.
Фишинговые атаки с использованием ИИ развиваются, и в 2024 году злоумышленник попытался снять дипфейковое видео и смоделировал видео, притворяясь финансовым директором компании, и убедил сотрудника перевести мошеннику 25 миллионов долларов.
Помните поговорку: «Видеть — значит верить». Теперь, будущее кибербезопасности 2026 года — видеть недостаточно, если человек не присутствует лично.
5: Кибератаки, управляемые ИИ, CVE Genie и его автономные инструменты взлома:
Это наглядный пример того, как самое слабое звено может перевернуть весь механизм. Только в сфере информационной безопасности такие уязвимости не скрываются — их публикуют, и называются они Common Vulnerabilities and Exposures.
Эти публикации или отчёты пишут эксперты по безопасности, которые выявляют основные уязвимости, описывают их, нумеруют, документируют и каталогизируют, и эта информация становится общедоступной.
Это ещё один исследовательский проект, который приветствовал тьму, и, к сожалению, автоматные инструменты взлома превратили эти данные общественной безопасности в оружие. Злоумышленники взяли данные и информацию этого CVE и использовали агента ИИ для создания CVE джина.
Этот агент передал данные CVE в LLM, который прошёл все проблемные решения, вытащил основные детали, разработал план и отправил этот пакет информации обратно джинну.
Этот джинн затем обрабатывает все уязвимости и разрабатывает код эксплойта для злоумышленников.
Это оказалось успешным примерно в 51 % случаев — и вы понимаете, что это означает для кибератак, управляемых ИИ?
Это означает, что любой, обладающий минимальным пониманием того, как работает кодирование, может легко использовать эту информацию и использовать агента ИИ для эксплуатации систем.
Это стоит менее $3 (цена упаковки Kool-Aid), и это настолько снижает барьер входа, что любой с базовыми знаниями кода может запускать высокоуровневые кибератаки с ИИ.
6: Кибератаки, управляемые ИИ — финальный босс или цепочка убийств:
Познакомьтесь с финальным боссом искусственного интеллекта в киберпреступности — полностью автоматизированной цепочкой убийств.
Если вы думаете, что это ещё только предстоит, то на самом деле всё уже происходит прямо сейчас — в то время как вы читаете эту статью.
Эти конкретные кибератаки, управляемые ИИ, печально известны тем, что используют такие системы, как Anthropic, для проведения жестких операций.
В таких видах атак агент ИИ ведёт себя как мастер-стратег, проводит независимые исследования по выявлению целей, анализирует конфиденциальные данные и даже создаёт фальшивые образы , чтобы скрыть любые следы или крошки.
Эти агенты усиливают кибератаки, управляемые искусственным интеллектом , принимая важные экономические решения за вас, тщательно анализируя финансовую стоимость жертвы, её активы и, наконец, калибрируя выкуп, который она может потребовать, чтобы убедиться, что выкуп был достаточно эффективен и достаточно низким, чтобы жертва могла быть вынуждена заплатить.
А вы думали, что ваши бывшие хорошо умеет манипулировать?
Наоборот, будущее кибербезопасности в 2026 году находится под угрозой, и мы вышли за рамки традиционных межсетевых экранов и антивирусов «как раз достаточной» защиты.
По мере того как кибератаки, управляемые ИИ, становятся более креативными, автономными, полиморфными и экономически продуманными, разрыв между «элитными хакерами» и «виде-кодерами» сокращается.
Мы наблюдаем масштабный сдвиг в кибератаках, когда искусственный интеллект в киберпреступности и скорость атаки опережают человеческое время.
Однако это не проигранная битва. Пора подумать как хакер, чтобы победить хакера, но с лучшими технологиями и пониманием.