ИИ – это экзистенциальная угроза человеческой цивилизации

Ученые, эксперты, инженеры предупреждают, что ИИ может стать экзистенциальной угрозой для человеческой цивилизации. Искусственный интеллект необходимо уже сейчас рассматривать как риск, такой же как и ядерная катастрофа, пандемия.

Открытое письмо некоммерческой исследовательской организации Center for AI Safety подписали свыше 350 руководителей, ученых и инженеров, работающих в области искусственного интеллекта.

Они призывают как можно серьезнее отнестись к потенциальным угрозам, которые несет в себе виртуальный мир для социума, и принять меры по его регулированию, пока не стало поздно.

ИИ – это экзистенциальная угроза человеческой цивилизации
ИИ для человечества

Эксперты и ученые, руководители компаний обсуждают риски

На данный момент отраслевые эксперты, журналисты, политики и общественность все чаще обсуждают риски, связанные с ИИ. В открытом письме они указывают, что ИИ может нести в себе угрозы, которые до сих пор должным образом не оценены обществом.

Интересный факт, среди тех, кто подписал письмо, CEO ведущих компаний в области искусственного интеллекта:

  • Сэм Альтман (OpenAI);
  • Демис Хассабис (Google DeepMind);
  • Дарио Амодеи (Anthropic).

Также его подписали известные во всем мире «крестные отцы искусственного интеллекта»:

  • Джеффри Хинтон;
  • Йошуа Бенджио.

Несколько месяцев назад тысячи экспертов призвали приостановить обучение моделей ИИ

Свыше тысячи отраслевых экспертов, включая Илона Маска и Стива Возняка, призвали на полгода приостановить обучение языковых моделей мощнее GPT-4 от OpenAI.

ИИ – это экзистенциальная угроза человеческой цивилизации
ИИ опасность

Соответствующее открытое письмо Института будущего жизни подписали ученые, бизнесмены. В сообщении, написанном в соавторстве с Сэмом Альтманом и Грегом Брокманом, Илья Суцкевер, ученый из OpenAI, предупреждает, что продвижение ИИ должно строго регулироваться, чтобы избежать сценариев конца света. 

Ученые и эксперты уверены, что разработка новых моделей искусственного интеллекта должна быть приостановлена на какое-то время. Нужно сначала создать протоколы регуляции, системы безопасности для ИИ.

По их мнению, если не принять надлежащие меры сейчас, то в мире могут произойти масштабные экономические и политические потрясения. Они могут вызвать непоправимые последствия для множества стран.

Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman

Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News

5 1 голос
Рейтинг статьи

Эд Мицкевич

Поддерживаю Freedman. Club в процессе популяризации криптовалют, считаю важными основные принципы децентрализации, свободы и ответственности выбора.

Подписаться
Уведомить о
guest

0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x