ИИ на службе мошенников: обман пользователей будет все изощрённым

3 мая 2022 года в Европарламенте был рассмотрен доклад, в котором рассматривался вопрос допустимости использования ИИ (искусственного интеллекта) для расследования преступлений. В начале 2023 года должен быть принят закон AIA, который будет регулировать деятельность ИИ на всей территории ЕС. Пока законодательные органы составляют своды правил и нормативные акты, ИИ становится все более мощным инструментом, используемым организованными группировками хакеров и мошенников.

Проблема применения ИИ в преступных целях обсуждается уже несколько лет. В частности, в 2018 году был выпущен доклад «Вредоносное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий» (The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. А в 2019 году был представлен масштабный обзор «Преступность с использованием искусственного интеллекта: междисциплинарный анализ прогнозируемых угроз и решений» (Artificial Intelligence Crime: an Interdisciplinary Analysis of Foreseeable Threats and Solutions).

В них подчеркивалось, что с каждым годом количество преступлений, совершаемых в цифровой экономике с использованием ИИ будет расти в геометрической прогрессии. В докладах выделено несколько основных видов атак, где ИИ займет доминирующую роль.

Персональный фишинг

Как показали данные Anti-Phishing Working Group («Международная рабочая группа по искоренению фишинга), в 2021 году количество фишинговых атак побило рекорд за всю историю наблюдения. Киберпреступники стали использовать ИИ для того, чтобы он анализировал большие кластеры информации о компаниях и конкретных сотрудниках. За счет этого персонализация фишинга стала настолько изощренной, что в более 90 % случаев персонал без сомнений нажимал на ссылки в фишинг-письмах, поскольку был убежден в том, что оно официальное или от непосредственного руководителя. Слог писем составлен таким образом, что вызывает уверенность в его подлинности.

Персонализация фишинга оценивается как одна из самых главных ИИ-угроз в ближайшие 3-4 года. К примеру, в 2021 году в конце осени в сельском хозяйстве США было зафиксировано множество фишинг-атак. Они выводили из строя крупные фермы, продовольственные компании, требуя выкуп в Биткойнах.

Отмечается, что в РФ персональный фишинг может приобрести особо угрожающие масштабы. Причина в том, что защита персональных данных практически не работает, в открытом доступе находятся большие объемы баз данных клиентов, регулярно взламываются аккаунты. После того как некоторые IT-компании ушли с рынка после введенных санкций и перестали оказывать техническую поддержку, проблема персонального фишинга становится еще более острой. Как ее собираются решать именно в РФ, пока неясно, несмотря на многочисленные акты и государственные программы по обеспечению защиты данных на предприятиях и компаниях.

Дипфейки (Deepfake)

ИИ научился создавать контент, который крайне трудно отличить от настоящего. Он имитирует уже живых людей с превосходной точностью, а не только картинки и текстовый контент. Одним из примеров качественно сделанного дипфейка можно указать ролик «Олег Тинькофф», его прокручивали в сентябре 2021 года. Смонтированный образ банкира призывал пользователей инвестировать в новую бизнес-схему. Количество обманутых клиентов осталось неизвестным.

Deepfake становятся вторыми по значимости угрозами с применением ИИ в следующие несколько лет.

Боты и дроны

ИИ научился создавать вымогательские call-центры, которые имитируют голоса друзей, позволяя киберпреступникам выманивать приватную информацию у жертв. Также он способен управлять агитационными и рекламными чат-ботами в огромном количестве, чтобы уничтожить репутацию отдельного лица или корпорации. В юриспруденции уже пытаются ввести норму, что атаки ботов являются аналогичными пыткам.

С помощью ИИ дроны могут устраивать красивые шоу на выставках. Однако они могут быть использованы и для злонамеренных действий. В 2018 году аэропорт Гатвик (Лондон) был оккупирован сотнями дронов и было задержано 750 рейсов. 100 тысяч пассажиров не смогли улететь. Были привлечены воинские подразделения для очистки полос от дронов. Виновников инцидента найти так и не удалось. Дроны, управляемые ИИ могут быть задействованы для перевозки опасных веществ, похищения информации при подключении к сетям и т.д.

Итоги

Как противостоять таким угрозам? Придется постоянно обучать и тренировать персонал, выстраивать защитные системы на базе спам-фильтров и программ на основе ИИ, способных самостоятельно засечь опасные действия.

Будут востребованы услуги на специалистов репутационного менеджмента, которые смогут в режиме онлайн отследить атаки ботов, проводить контркампании, использовать ИИ для обеспечения защиты репутации частных лиц и компаний. В вышеуказанные мероприятия нужно будет вкладывать значительные средства. В противном случае, киберпреступникам будет очень легко нанести непоправимый урон как финансовой, так и репутационной составляющей физическим и юридическим лицам.

Пока в этой борьбе выигрывают организованные группы хакеров, использующих ИИ в своих преступных целях.

Подписывайтесь на Фридман клаб в соцсетях и наш Телеграм канал, чтобы всегда быть в курсе самых последних и горячих новостей @like_freedman

Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News

1 1 голос
Рейтинг статьи

Эд Мицкевич

Поддерживаю Freedman. Club в процессе популяризации криптовалют, считаю важными основные принципы децентрализации, свободы и ответственности выбора.

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
()
x