Англия призывает страны маркировать ИИ
Премьер-министр Риши Сунак призывает страны обозначить ИИ как способный нанести «катастрофический вред» на саммите по безопасности искусственного интеллекта. Англия проведет его в следующем месяце, поскольку стремится выработать общий международный подход к быстро развивающимся технологиям.
Англия хочет, чтобы страны подписали совместную декларацию, в которой излагаются особые опасения по поводу влияния ИИ на кибербезопасность и биотехнологии, согласно проекту коммюнике, распространенному среди участников. Чиновники намерены выработать окончательную формулировку коммюнике к 25 октября, говорится в отдельном документе.
Англия призывает страны маркировать искуственный интеллект
В проекте документов, указывается, что существует вероятность значительного, даже катастрофического ущерба, как преднамеренного, так и непреднамеренного, вытекающего из наиболее опасных возможностей моделей ИИ.
В проекте также подчеркиваются преобразующие возможности ИИ, особенно в сфере государственных услуг, таких как здравоохранение, образование, наука и чистая энергетика.
Встреча в Блетчли-парке, где во время Второй мировой войны жили британские взломщики кодов, в том числе Алан Тьюринг, является частью инициативы Sunak, направленной на то, чтобы поставить Великобританию в авангарде искусственного интеллекта и помочь информировать о подходах регулирования и установить «ограждения» для отрасли вокруг мир. Ожидается, что в мероприятии примут участие около 100 человек из 28 стран, в том числе руководители предприятий, отраслевые эксперты и мировые лидеры.
В документ все еще могут вноситься изменения, хотя администрация Сунака близка к выпуску окончательной версии.
Согласно документу, мировые лидеры также намерены призвать к повышению прозрачности компаний, разрабатывающих технологии искусственного интеллекта, и сосредоточатся на создании четких показателей оценки, инструментов для тестирования безопасности, а также развитии соответствующих возможностей государственного сектора и научных исследований.
Особые риски безопасности возникают на «границе» ИИ общего назначения
Особые риски безопасности возникают на «границе» ИИ общего назначения, а также в некоторых случаях конкретного узкого ИИ, который может проявлять опасные возможности», — говорится в проекте. Наиболее значительные из этих рисков возникают из-за потенциального преднамеренного неправильного использования или проблем контроля, когда системы ИИ могут стремиться увеличить свое влияние и уменьшить контроль со стороны человека, и эти проблемы отчасти связаны с тем, что эти возможности не полностью поняты».
В проекте и других документах, распространенных среди участников, также говорится, что европейская комиссия продвигает процесс международного сотрудничества в области безопасности ИИ.
Блок также заинтересован в том, чтобы любой согласованный подход соответствовал его собственному законодательству об искусственном интеллекте, включая акцент на его потенциальном неправомерном использовании при кибератаках и на способности передовых систем потерять контроль.
Разработчики «необычайно мощных и потенциально опасных передовых возможностей ИИ несут особую ответственность за обеспечение безопасности этих возможностей.
Всем соответствующим участникам настоятельно рекомендуется «обеспечивать соответствующую контексту прозрачность и подотчетность в своих планах по измерению, мониторингу и смягчению потенциально опасных возможностей и связанных с ними последствий, которые могут возникнуть».
«Ради общего блага ИИ должен проектироваться, разрабатываться, внедряться и использоваться таким образом, чтобы быть ориентированным на человека, безопасным, заслуживающим доверия и ответственным», — говорится в проекте коммюнике.
Подпишись на Tелеграм канал! Будь в курсе последних новостей криптомира. Не пропустить грядущий бычий цикл в крипте. Регулярная БЕСПЛАТНАЯ АНАЛИТИКА. Для всех подписчиков сообщества! Переходи по ссылке прямо сейчас!
Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News