ИИ поможет обойти верификацию на криптобиржах

ИИ может помочь обойти верификацию на криптовалютных биржах. С быстро развивающейся технологией искусственного интеллекта процесс создания поддельных доказательств личности становится проще, чем когда-либо. Обеспокоенность по поводу рисков, связанных с искусственным интеллектом в криптографии, побудила некоторых видных руководителей отрасли высказаться по этому поводу.

Стоит отметить, что ИИ представляет опасность для детей и подростков. Даже Чанпэн Чжао поднял тревогу по поводу использования ИИ в криптовалюте злоумышленниками.

Генеральный директор Binance сослался на созданное искусственным интеллектом видео с участием соучредителя и генерального директора HeyGen Джошуа Сюй. Видео специально включало созданный искусственным интеллектом аватар Сюй, который выглядит точно так же, как настоящий генеральный директор HeyGen, и воспроизводит его выражение лица, а также голос и речевые паттерны.

ИИ может обойти верификацию на криптобиржах с помощью дипфейков

«Видеоклипы были на 100% сгенерированы искусственным интеллектом, с моим собственным аватаром и голосовым клоном», — отметил Сюй. Он добавил, что HeyGen значительно улучшил качество видео и голосовые технологии своего аватара, чтобы имитировать его уникальный акцент и речевые модели. «Скоро это будет запущено в производство, и каждый сможет его опробовать», — добавил Сюй.

По словам генерального директора HeyGen, инструмент искусственного интеллекта, который станет общедоступным, позволит любому создать реальный цифровой аватар всего за «две минуты».

Публичное раскрытие инструментов генерации ИИ, таких как HeyGen, потенциально может вызвать серьезные проблемы с проверкой личности для криптовалютных бирж. Биржи применяют меры KYC, включающие требование отправки видео с изображением пользователя и определенных документов для получения доступа к услугам или даже для вывода средств с платформы.

Технология искусственного интеллекта становится настолько продвинутой, что дипфейки искусственного интеллекта вскоре могут стать незаметными для человеческого верификатора.

Что такое дипфейки

Дипфейки — это форма цифровой подделки, в которой используется искусственный интеллект и машинное обучение для создания реалистичных изображений, видео или аудиозаписей, которые кажутся подлинными, но на самом деле являются подделкой.

Эти управляемые мультимедийные файлы создаются путем наложения лица одного человека на тело другого или путем изменения голоса, выражения лица и движений тела человека в видео.

С развитием алгоритмов глубокого обучения стало проще создавать дипфейки, которые можно использовать для распространения дезинформации, пропаганды или клеветы на кого-либо. Дипфейки могут быть созданы с использованием программного обеспечения с открытым исходным кодом или специализированных инструментов и могут легко распространяться из-за вирусной природы социальных сетей. 

 За последние несколько недель вирусными стали фейковые изображения бывшего президента Дональда Трампа, ссорящегося с полицией. То же самое произошло с созданным искусственным интеллектом изображением Папы Франциска в стильном пуховике и так далее.

ИИ поможет обойти верификацию на криптобиржах

Существует три основных типа технологии дипфейков, которые более подробно описаны ниже.

  • Дипфейки с заменой лица: это наиболее распространенный тип дипфейков, который включает в себя замену лица одного человека на лицо другого в видео или изображении.
  • Аудио дипфейки: эти дипфейки заменяют чей-то голос в записи голосом другого человека.
  • Текстовые дипфейки: эти дипфейки генерируют текст, который кажется написанным кем-то другим.

Киберпреступники могут использовать дипфейки разными способами, чтобы обманывать и обманывать людей. Некоторые из наиболее распространенных случаев использования дипфейков киберпреступниками включают в себя:

  • Выдача себя за высокопоставленных лиц. Киберпреступники могут использовать дипфейки для создания видео- или аудиозаписей, из которых создается впечатление, что высокопоставленные лица говорят или делают то, чего никогда не говорили и не делали. Глубокие подделки могут использоваться для распространения дезинформации, нанесения ущерба репутации или даже совершения финансового мошенничества.
  • Кража личной информации. Злоумышленники могут использовать дипфейки для создания реалистично выглядящих поддельных удостоверений личности или паспортов, чтобы украсть деньги или совершить кражу личных данных.
  • Проникновение в организации: киберпреступники могут использовать дипфейки для создания видео или аудиозаписей, которые создают впечатление, что они разговаривают с кем-то из законной организации. Затем их можно использовать для доступа к конфиденциальной информации или для обмана людей при совершении платежей.

Конкуренция между созданием и обнаружением дипфейков не прекратится в обозримом будущем. Мы увидим дипфейки, которые легче сделать, они более реалистичны и их труднее отличить.

Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman

Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News

5 1 голос
Рейтинг статьи

Эд Мицкевич

Поддерживаю Freedman. Club в процессе популяризации криптовалют, считаю важными основные принципы децентрализации, свободы и ответственности выбора.

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x