В Англии создадут институт безопасности ИИ

Премьер-министр Англии Риши Сунак объявил о создании института безопасности ИИ. Он заявил, что учреждение станет первым в мире и будет тестировать новые типы ИИ на предмет целого ряда рисков — от создания дезинформации и до экзистенциальных угроз.

По его словам, институт расширит мировые знания о безопасности ИИ, станет тщательно изучать, оценивать и тестировать модели искусственного интеллекта, чтобы все поняли, на что способна каждая новая модель.

В Англии планируют создать институт безопасности ИИ

Объявляя об этом шаге перед глобальным саммитом по безопасности ИИ, который состоится на следующей неделе в Блетчли-парке, Сунак заявил, что институт безопасности станет средством международного сотрудничества в области безопасности ИИ, уже существует в виде британской пограничной целевой группы по искусственному интеллекту, которая тщательно изучает безопасность передовых моделей ИИ и была создана в этом году.

Сунак заявил, что пауза в разработке мощных моделей невозможна. На вопрос после выступления, поддержит ли он мораторий или запрет на разработку высокоэффективной формы искусственного интеллекта, известной как общий искусственный интеллект, он ответил: «Я не думаю, что это неосуществимо. В принципе, Великобритания по праву является страной с экономикой и обществом, которая поощряет инновации ради всех благ, которые они могут принести. И я думаю, что это правильный подход».

Дебаты о безопасности ИИ достигли нового пика в марте, когда открытое письмо, подписанное тысячами видных деятелей технологического сектора, включая Илона Маска, призвали к паузе в создании моделей ИИ минимум на шесть месяцев.

1-2 ноября пройдет саммит по ИИ в Англии

Сунак сказал, что до сих пор неясно, примет ли Китай участие в саммите, несмотря на то, что Пекин получил приглашение принять участие вместе с руководителями технологических компаний, экспертами и другими мировыми лидерами. Премьер-министр заявил, что не может сказать со 100% уверенностью, присоединятся ли китайские чиновники.

Лиз Трасс, предшественница Сунака, усилила давление на присутствие Китая в четверг, попросив премьер-министра отменить приглашение, предупредив, что Пекин использовал технологии для нападения на «свободу и демократию».

Белый дом подтвердил, что вице-президент Камала Харрис примет участие в саммите. Она выступит с речью о подходе США к искусственному интеллекту 1 ноября, а затем примет участие в мероприятии 2 ноября, когда Сунак соберет небольшую группу международных партнеров, компаний и экспертов, чтобы обсудить, какие конкретные шаги можно предпринять для устранения рисков, связанных с ИИ.

Одним из потенциальных достижений в области искусственного интеллекта, которое тревожит некоторых экспертов, является AGI. Это термин, обозначающий систему, которая может выполнять ряд задач на человеческом уровне интеллекта или за его пределами.

Сунак выступил с этим заявлением после того, как правительство опубликовало свою оценку рисков для безопасности ИИ, включая признание того, что нельзя исключать экзистенциальную угрозу со стороны этой технологии.

«Учитывая значительную неопределенность в прогнозировании развития ИИ, нет достаточных доказательств, чтобы исключить, что высокоэффективные передовые системы ИИ, если они несогласованы или неадекватно контролируются, могут представлять экзистенциальную угрозу», — говорится в правительственном документе, опубликованном в среду.

Другие угрозы, подробно описанные в правительственных отчетах о рисках, включают способность систем разрабатывать биологическое оружие, массово производить «сверхцелевую» дезинформацию и вызывать существенные нарушения на рынке труда.

Сунак сказал, что наихудший сценарий экзистенциальной угрозы со стороны «сверхразумной» системы, которая уклоняется от человеческого контроля, — это сценарий, который разделил мнения экспертов и может вообще не произойти. Тем не менее он добавил, что крупные разработчики ИИ выразили обеспокоенность по поводу экзистенциальных рисков.

Сунак добавил, что он будет использовать двухдневный саммит, чтобы призвать к созданию экспертной группы по мониторингу ИИ, аналогичной Межправительственной группе экспертов по изменению климата.

«На следующей неделе я предложу создать по-настоящему глобальную экспертную группу, назначенную странами и организациями, участвующими в [саммите], для публикации отчета о состоянии науки в области ИИ», — сказал он.

Подпишись на Tелеграм канал! Будь в курсе последних новостей криптомира. Не пропустить грядущий бычий цикл в крипте. Регулярная БЕСПЛАТНАЯ АНАЛИТИКА. Для всех подписчиков сообщества! Переходи по ссылке прямо сейчас!

Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News

0 0 голоса
Рейтинг статьи

Эд Мицкевич

Поддерживаю Freedman. Club в процессе популяризации криптовалют, считаю важными основные принципы децентрализации, свободы и ответственности выбора.

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x