Генеративный ИИ становится новым риском для предприятий

Генеративный искусственный интеллект (ИИ) стал одним из основных рисков для организаций, следует из опроса Gartner. Его упомянули 66% респондентов. Опрос 249 старших руководителей корпоративных рисков выявил 5 основных возникающих рисков во втором квартале 2023 г.

По данным Gartner Inc., массовая доступность ИИ, такого как ChatGPT от OpenAI и Google Bard, стала главной проблемой для руководителей корпоративных рисков во втором квартале 2023 года. Генеративный ИИ был вторым наиболее часто упоминаемым риском в опросе за второй квартал, впервые появившись в топ-10.

Генеративный ИИ вошел в список главных рисков для предприятий

Генеративный ИИ вошел в список главных рисков для предприятий. Это отражает как быстрый рост общественной осведомленности и использование инструментов генеративного ИИ, так и широту потенциальных вариантов использования и, следовательно, потенциальные риски, которые порождают эти инструменты».

В мае 2023 года Gartner опросила 249 руководителей высшего звена, занимающихся корпоративными рисками, чтобы предоставить руководителям сравнительный анализ 20 возникающих рисков. Отчеты о рисках включают подробную информацию о возможном воздействии, сроках, уровне внимания и предполагаемых возможностях для этих рисков.

Таблица 1. Пять наиболее часто упоминаемых новых рисков во втором квартале 2023 г.

Рейтинг риска (по частоте)Название рискаЧастота
1Сторонняя жизнеспособность67%
2Доступность массового генеративного ИИ66%
3Неопределенность финансового планирования62%
4Риск концентрации облака62%
5Торговая напряженность в Китае56%

По мнению экспертов Gartner, с точки зрения управления корпоративными рисками необходимо учитывать несколько аспектов.

Информация, введенная в инструмент генеративного ИИ, может стать частью его обучающего набора, а это означает, что важная или конфиденциальная информация может оказаться в выводах для других пользователей. Более того, использование выходных данных этих инструментов вполне может привести к непреднамеренному нарушению прав интеллектуальной собственности других лиц, которые их использовали». Важно информировать корпоративное руководство о необходимости осторожности и прозрачности при использовании таких инструментов, чтобы можно было должным образом снизить риски интеллектуальной собственности как с точки зрения ввода, так и вывода генеративных инструментов искусственного интеллекта.

Инструменты искусственного интеллекта для создания конфиденциальности данных могут передавать информацию о пользователях третьим сторонам, таким как поставщики или поставщики услуг, без предварительного уведомления. Это может привести к нарушению закона о конфиденциальности во многих юрисдикциях. Например, регулирование уже введено в Китае и ЕС, а предлагаемые правила появляются, в частности, в США, Канаде, Индии и Великобритании.

Хакеры всегда тестируют новые технологии в поисках способов подорвать их в своих целях, и генеративный ИИ ничем не отличается. Таким образом, генеративный ИИ становится одним из важнейших рисков для компаний, и вероятнее всего, его угроза будет только расти в ближайшее время.

Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman

Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News

5 1 голос
Рейтинг статьи

Эд Мицкевич

Поддерживаю Freedman. Club в процессе популяризации криптовалют, считаю важными основные принципы децентрализации, свободы и ответственности выбора.

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x