Генеративный ИИ становится новым риском для предприятий
Генеративный искусственный интеллект (ИИ) стал одним из основных рисков для организаций, следует из опроса Gartner. Его упомянули 66% респондентов. Опрос 249 старших руководителей корпоративных рисков выявил 5 основных возникающих рисков во втором квартале 2023 г.
По данным Gartner Inc., массовая доступность ИИ, такого как ChatGPT от OpenAI и Google Bard, стала главной проблемой для руководителей корпоративных рисков во втором квартале 2023 года. Генеративный ИИ был вторым наиболее часто упоминаемым риском в опросе за второй квартал, впервые появившись в топ-10.
Генеративный ИИ вошел в список главных рисков для предприятий
Генеративный ИИ вошел в список главных рисков для предприятий. Это отражает как быстрый рост общественной осведомленности и использование инструментов генеративного ИИ, так и широту потенциальных вариантов использования и, следовательно, потенциальные риски, которые порождают эти инструменты».
В мае 2023 года Gartner опросила 249 руководителей высшего звена, занимающихся корпоративными рисками, чтобы предоставить руководителям сравнительный анализ 20 возникающих рисков. Отчеты о рисках включают подробную информацию о возможном воздействии, сроках, уровне внимания и предполагаемых возможностях для этих рисков.
Таблица 1. Пять наиболее часто упоминаемых новых рисков во втором квартале 2023 г.
Рейтинг риска (по частоте) | Название риска | Частота |
1 | Сторонняя жизнеспособность | 67% |
2 | Доступность массового генеративного ИИ | 66% |
3 | Неопределенность финансового планирования | 62% |
4 | Риск концентрации облака | 62% |
5 | Торговая напряженность в Китае | 56% |
По мнению экспертов Gartner, с точки зрения управления корпоративными рисками необходимо учитывать несколько аспектов.
Информация, введенная в инструмент генеративного ИИ, может стать частью его обучающего набора, а это означает, что важная или конфиденциальная информация может оказаться в выводах для других пользователей. Более того, использование выходных данных этих инструментов вполне может привести к непреднамеренному нарушению прав интеллектуальной собственности других лиц, которые их использовали». Важно информировать корпоративное руководство о необходимости осторожности и прозрачности при использовании таких инструментов, чтобы можно было должным образом снизить риски интеллектуальной собственности как с точки зрения ввода, так и вывода генеративных инструментов искусственного интеллекта.
Инструменты искусственного интеллекта для создания конфиденциальности данных могут передавать информацию о пользователях третьим сторонам, таким как поставщики или поставщики услуг, без предварительного уведомления. Это может привести к нарушению закона о конфиденциальности во многих юрисдикциях. Например, регулирование уже введено в Китае и ЕС, а предлагаемые правила появляются, в частности, в США, Канаде, Индии и Великобритании.
Хакеры всегда тестируют новые технологии в поисках способов подорвать их в своих целях, и генеративный ИИ ничем не отличается. Таким образом, генеративный ИИ становится одним из важнейших рисков для компаний, и вероятнее всего, его угроза будет только расти в ближайшее время.
Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman
Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News