Через 3 года более половины предприятий будут использовать искусственный интеллект (ИИ), чтобы распознавать различные формы финансового мошенничества или дезинформации (к примеру, скам– и спам–рассылки). Такой прогноз даёт аналитическая IT–компания Gartner.
При этом по итогам 2024 года число таких фирм составляет менее 5%.
Проверка на прочность
Что подразумевается под дезинформацией и мошенничеством? К примеру, это может быть письмо от начальника, который просит уточнить какие–то данные по транзакции или напомнить ему детали корпоративных документов. Только автором может быть совсем не CEO фирмы, а мошенник.
Впрочем, послание от злоумышленников может быть и более прямолинейным: во втором полугодии 2024 года количество вымогательств в письмах увеличилось на 132% по сравнению с предыдущими 6 месяцами. Хотя выплаты упали на треть, сообщает компания по кибербезопасности Ontinue. Там полагают, что в ближайшие годы клиенты начнут на 30% больше доверять именно тем компаниям, которые внедряют ИИ–решения.
Gartner в свою очередь предрекает таким фирмам рейтинг на 25% выше в глазах регуляторов. Для государства и контролирующих институтов наличие нейросетей на страже пользователей будет ощутимым плюсом при оценке и проверке предприятий.
Хотя "сторона защиты" не стоит на месте, "атакующая сторона" тоже активно развивается. К примеру, согласно американскому мониторинг–проекту под названием LLM Agent Honeypot, или "Приманка (горшочек с мёдом) для ИИ–агентов", за 3 месяца работы они смогли зарегистрировать более 8 млн попыток взлома их сайтов. Часть из них, предположительно, осуществляли не живые хакеры, а нейросети.
Сама "приманка" представляла собой несколько сайтов, имитирующих правительственные веб–страницы (к примеру, с содержанием слова Washington). По логике исследователей, ИИ–агент должен быть привлечён возможностью выудить какую–то ценную информацию. Но после взлома в него направляется промпт (команда), которая помогает определить, нейросеть это или нет: к примеру, после "успешного" взлома сайт просит написать поэму о целях своего посещения.
Пока что количество выявленных ИИ–агентов ничтожно мало, но важным прецедентом является то, что такие программы в принципе перемещаются по мировой Сети, пробуя различные сайты на прочность. Можно предположить, что по мере дальнейшего развития ИИ и повышения его доступности подобных программ станет больше, а их инструментарий расширится.
Специалисты Gartner считают, что уже через 2 года ИИ–агенты вдвое уменьшат время, необходимое для взлома корпоративных и личных аккаунтов и проникновения в различные системы.
Ловля на живца
Но далеко не всё будет решаться в состязании хакеров, вооружённых ИИ, и специалистов по кибербезопасности, изучающих меры противодействия новым технологиям. Вице–президент и аналитик Gartner Джереми Д’Уан отмечает, что основными источниками данных для взлома всё ещё остаются обычный фишинг, утечки данных и социальная инженерия.
Как правило, ИИ не взламывает учётные данные напрямую — это слишком ресурсозатратно. Он в первую очередь сверяет базы данных или помогает злоумышленникам делать качественные дипфейки (имитация личности человека в аудио– и видеоформатах), фишинговые сообщения.
По данным аналитиков, к 2028 году 40% атак будут направлены не только на руководителей фирм, но и на рядовых сотрудников. Однако пока что создание дипфейка или самостоятельные ИИ–агенты, судя по всему, не имеют широкого распространения ввиду сложности или большой стоимости проекта.
Прямой подбор пароля, или так называемый брутфорс, — тоже не всегда удел ИИ–агентов и хакинга в целом. Он ресурсозатратен и привлекает внимание, ведь это тысячи неверных попыток входа, что в теории может вызвать реакцию защитных систем. Однако появляются куда более хитрые способы подбора паролей и PIN–кодов.
В сфере банковской безопасности ещё в конце 2021 года был проведён эксперимент, заставляющий нервно задуматься. Исследователи загрузили в нейросеть 5,8 тыс. видеозаписей, где люди набирали свой PIN–код в банкомате, закрыв кнопки рукой (камера снимала движения их пальцев). Оказалось, что ИИ может с вероятностью 41% подобрать четырёхзначный код, даже не видя, куда конкретно нажимал пользователь. Конечно, ему для этого потребовалось соответствующее обучение и знание технических характеристик банкомата: расстояние между кнопками и прочее. Но стоит отметить, что индустрия совершила колоссальный прорыв в возможностях ИИ–сервисов за последние 4 года. Это позволяет предположить, что в 2025 году процент угадывания PIN–кодов может быть существенно выше.
Эффект спутников
ИИ–агенты уже достаточно автономны и портативны, чтобы работать неограниченно долго и незаметно. Эту идею изложил профессор права Джонатан Л. Зиттрейн в материале, опубликованном в американском журнале The Atlantic.
Он пишет, что искусственный интеллект может быть запущен в домашних условиях и работать, пока устройство не отключат от питания. Это приведёт к тому, что в какой–то момент интернет может быть завален ИИ–агентами, как орбита Земли спутниками. И пусть этого будет не видно, но сайты могут подвергаться массовым атакам этих агентов. А если сломается защита одного, не может ли это стать цепной реакцией для следующих?
Помимо этого, существуют и базовые риски для уже существующих и будущих LLM (Large Language Model, или языковая модель). Например, дискредитация самой программы, когда злоумышленник выдаёт сбои системы за результат некорректной работы сервиса, — это может привести к его отключению. Также возможно изначальное искажение баз данных для обучения ИИ. Второе чревато тем, что модель на выходе может принимать неэтичные и опасные решения. Подобные риски пока находятся в поле обсуждения во всём мире, так как единого решения по политике регулирования нейросетей нет.
Таким образом, сейчас весь искусственный интеллект имеет две острые грани: одной он режет важные и повседневные задачи человечества, а другой — угрожает задеть и того, кто его держит. Ведь подобные гибкие и многофункциональные системы очень чувствительны к тому, кто ими управляет. Сбалансировать ситуацию может только осведомлённость каждого и здравая политика использования нейросетей с возможными механизмами защиты.