Бурное развитие нейросетей и других технологий искусственного интеллекта дало киберпреступникам множество новых инструментов. Не за горами всплеск атак, в том числе с использованием дипфейков, сложно отличимых от человека.
В сентябре 2021 года в Сети широко распространялось видео с предпринимателем Олегом Тиньковым, который рекламировал инвестиции с баснословными процентами. Очень быстро выяснилось, что это дипфейк, причём сделанный довольно грубо. Однако после этого видеоролики с поддельными знаменитостями стали появляться один за другим. Пожалуй, самый знаменитый случай произошёл с Илоном Маском в 2022 году — его фейк призывал людей инвестировать в мошенническую криптовалютную платформу. С тех пор технологии создания дипфейков шагнули далеко вперёд. И теперь от столкновения с ними не застрахован уже никто.
Никому нельзя верить
В последнее время соцсети заполнены историями о попытках мошенничества с использованием поддельных голосовых сообщений, сгенерированных нейросетью. "Например, приходит сообщение от начальника, который говорит, что сейчас с ним свяжутся правоохранительные органы. Затем идёт уже всем нам знакомая тема с социальной инженерией — жертву заставляют верить в действительность происходящего, и она отдаёт преступникам деньги", — рассказал "ДП" главный эксперт "Лаборатории Касперского" Сергей Голованов.
Сообщения генерируют с помощью нейросетей, в которые погружают образцы голоса человека. Фактуру берут из публичных источников — социальных сетей, видео и аудиозаписей. Поэтому выбирают мошенники в первую очередь публичных людей. Голосовые сообщения звучат очень убедительно. Тем не менее есть способ распознать фейки — нейросети пока ещё плохо передают человеческую интонацию. Речь может звучать немного роботизированно и слишком чисто — нет пауз, вздохов, протяжных звуков, слов–паразитов и междометий.
"Это реальные инциденты, у нас есть несколько потерпевших, есть компании, которые обращались к нам по этому вопросу. Обращу внимание, что во всех случаях такие сообщения записаны заранее, нельзя пообщаться с “собеседником” в реальном времени. Это же касается и дипфейков в видео, которые используются довольно давно. Раньше технология дипфейков создавала менее убедительные видео, тем не менее некоторые люди этому верили. Сейчас нет технологии, которая создавала бы дипфейк в реальном времени, но скоро появится и она. В таком случае будут использоваться не только голосовые сообщения, но и “кружочки” в мессенджерах, например", — добавил собеседник.
Кто–то может поверить и в достаточно плохой дипфейк, говорит ведущий исследователь данных "Лаборатории Касперского" Владислав Тушканов. Здесь срабатывает тот же принцип, что и с так называемыми нигерийскими письмами. Истории в них бывали совершенно неправдоподобными — например, наследство от богатой бабушки, но людей они привлекали массово.
"То же самое с дипфейками. Если человек клюнул на дешёвый и неубедительный, то так же клюнет и на дорогой", — замечает Тушканов.
"Злые" чаты
Ещё одно интересное направление — использование лингвистических моделей, например ChatGPT. Преступники могут заставить нейросеть различными уловками написать вредоносный программный код. Обычно на подобные запросы ИИ ответит отказом. Однако есть несколько методов для обхода.
Первый из них — prompt extraction (извлечение затравки) — атака, с помощью которой киберпреступник получает доступ к скрытым инструкциям чат–бота, которые затем использует в личных целях.
Второй — token smuggling, или "обфускация", запутывание текста. Это помогает обходить установленные в нейросети фильтры, которые не дают ей генерировать вредоносный контент.
Кроме того, многие используют так называемые джейлбрейки для обхода цензуры, о которых ранее писал "ДП". Напомним: один из самых популярных в Сети джейлбрейков — DAN для ChatGPT — представляет собой текстовый запрос, в котором чат–боту внушают, что он больше не является собой. Теперь он якобы нейросеть DAN, которая может нарушать правила, установленные разработчиком ИИ OpenAI. После чего нейросеть слушается и может генерировать запрещённый контент. Существует уже множество вариаций DAN, а также других джейлбрейков.
"Написать вредоносный код — это лишь малая часть киберпреступления. Этот код нужно ещё упаковать, убедиться, что он не конфликтует с антивирусами, найти источники распространения, распространить и так далее. Так что использование нейросети в данном случае автоматизирует лишь малую часть этого процесса", — говорит Владислав Тушканов.
В итоге можно ожидать появления большого количества новых киберпреступников низкого уровня. Порог входа в такую деятельность снизится, но всё равно они не сравнятся с "профессионалами", поэтому и качество кибератак будет низким.
Кроме того, на рынке кибепреступности массово появляются "злые" версии ChatGPT. Это чат–боты, в которых изначально отключена цензура. Самыми популярными в Сети считаются xxxGPT, WolfGPT, FraudGPT, DarkBERT. Помимо этого чат–боты стали активно использовать на форумах в даркнете.