6 наихудших сценариев ИИ
Худший сценарий из Голливуда с использованием искусственного интеллекта (ИИ) известен как научно-фантастический блокбастер: машины приобретают человеческий разум и неизбежно превращаются в злых повелителей, которые пытаются уничтожить человеческую расу. Этот рассказ основан на нашем врожденном страхе перед технологиями, отражении глубоких изменений, которые часто сопровождают новые технологические разработки.
Однако ИИ не должны быть разумны, чтобы убить нас всех. Есть множество других сценариев, которые уничтожат нас до того, как разумный ИИ станет проблемой.
Существуют множество наихудших сценариев реального мира, связанных с искусственным интеллектом, которые гораздо более приземлены, чем те, что изображены в фильмах. Но они не менее антиутопичны. И большинству из них не требуется злобный диктатор, чтобы довести их до полной реализации. Скорее, они могут просто произойти по умолчанию, разворачиваясь органически, то есть, если ничего не будет сделано, чтобы их остановить. Чтобы предотвратить эти наихудшие сценарии, мы должны отказаться от наших представлений об искусственном интеллекте в поп-культуре и серьезно отнестись к его непредвиденным последствиям.
1. Когда художественная литература определяет нашу реальность
Может случиться ненужная трагедия, если мы позволим вымыслу определять нашу реальность. Но какой у нас выбор, если мы не можем отличить реальное от ложного в цифровом мире?
При ужасающем сценарии рост числа дипфейков — поддельных изображений, видео, аудио и текста, созданных с помощью передовых инструментов машинного обучения, — может когда-нибудь привести к тому, что лица, принимающие решения в области национальной безопасности, предпримут реальные действия, основанные на ложной информации, что приведет к крупному кризису или, что еще хуже, войне.
Системы на базе искусственного интеллекта теперь способны генерировать дезинформацию в больших масштабах. Создавая большие объемы и разнообразие фальшивых сообщений, эти системы могут скрыть их истинную природу и оптимизироваться для достижения успеха, со временем улучшая желаемое воздействие.
Само по себе понятие дипфейков в условиях кризиса может также заставить лидеров колебаться в отношении действий, если достоверность информации не может быть своевременно подтверждена.
Впрочем, дипфейки по умолчанию подрывают наше доверие к информационным сообщениям. Как действия, так и бездействие, вызванные дипфейками, могут иметь катастрофические последствия для мира.
2. Опасная гонка
Когда дело доходит до ИИ и национальной безопасности, скорость — это одновременно и суть, и проблема. Поскольку системы на базе искусственного интеллекта предоставляют пользователям большее преимущество в скорости, страны, первыми разработавшие военные приложения, получат стратегическое преимущество. Но какими принципами можно пожертвовать в процессе?
Из-за мельчайших изъянов в системе все могло быть раскрыто и использовано хакерами. Кризис может начаться как безобидная единая точка отказа, из-за которой прекращаются все коммуникации, вызывая панику у людей, а экономическая активность прекращается. Постоянный недостаток информации, сопровождаемый другими просчетами, может привести к выходу ситуации из-под контроля.
Крупные катастрофы могут произойти, когда крупные державы срежут углы, чтобы получить преимущество — оказаться там первыми. Если в одной стране скорость важнее безопасности, испытаний или контроля со стороны человека, это будет опасная гонка на самое дно, которое поставит под угрозу все человечество.
Например, у руководителей национальной безопасности может возникнуть соблазн делегировать решения по управлению и контролю, исключив человеческий контроль над моделями машинного обучения, которые мы не полностью понимаем, чтобы получить преимущество в скорости. При таком сценарии даже автоматический запуск систем противоракетной защиты, инициированный без разрешения человека, может вызвать непреднамеренную эскалацию и привести к ядерной войне.
3. Конец конфиденциальности и свободы воли с помощью ИИ
С каждым цифровым действием мы производим новые данные — электронные письма, тексты, загрузки, покупки, публикации, селфи и местоположения по GPS. Предоставляя компаниям и правительствам неограниченный доступ к этим данным, мы передаем инструменты наблюдения и контроля.
С добавлением распознавания лиц, биометрии, геномных данных и прогнозного анализа с помощью ИИ, мы выходим на опасную и неизведанную территорию с усилением наблюдения и отслеживания с помощью данных, и мы почти не понимаем, что это такое и какие могут быть последствия.
Необходимо задуматься о логике ИИ и его значении для внутренних репрессий. В прошлом способность автократов подавлять свое население зависела от большой группы солдат, некоторые из которых могли встать на сторону общества и совершить государственный переворот. Как обернется дело, если во внутренние войны будут ввязаны новые технологии?
Сила данных, собранных и проанализированных, выходит далеко за рамки функций мониторинга и наблюдения, что позволяет осуществлять прогнозный контроль. Сегодня системы с поддержкой искусственного интеллекта предсказывают, какие продукты мы купим, какие фильмы будем смотреть и по каким ссылкам будем переходить. Когда эти платформы знают нас намного лучше, чем мы знаем самих себя, мы можем не замечать того, что лишаемся свободы воли и постепенно подчиняемся контролю внешних сил.
4. Клетка для человека уже создана
Способность детей иметь терпение когда-то считалась главным предиктором успеха в жизни. Но вскоре даже такие дети поддадутся мучительной обусловленности алгоритмов, основанных на вовлечении.
Пользователи социальных сетей превратились в крыс из лабораторных экспериментов, живущих в человеческих коробках, приклеенных к экранам своих смартфонов, вынужденных жертвовать драгоценным временем и вниманием на платформах, которые получают от этого прибыль за их счет.
Оглянитесь, алгоритмы оптимизированы, чтобы удерживать пользователей на платформе как можно дольше. Предлагая вознаграждения в виде лайков, комментариев и подписок. Алгоритмы сокращают работу нашего мозга, делая нашу следующую долю участия ненужной. Ученые-антропологи отмечают, что средний объем мозга человека постепенно сокращается именно потому, что он уже не используется для решения многочисленных задач, как прежде. (Трейдеры могут не соглашаться с этим утверждением).
Чтобы максимизировать прибыль от рекламы, компании отвлекают наше внимание от работы, семьи и друзей, обязанностей и даже наших хобби. Что еще хуже, контент часто заставляет нас чувствовать себя несчастнее и хуже, чем раньше. Чем больше времени мы проводим в социальных сетях, тем меньше времени мы проводим в поисках позитивной, продуктивной и полноценной жизни.
5. Тирания искусственного интеллекта
Каждый день мы все больше отдаемся в своей повседневной жизни машинам с искусственным интеллектом. Это неправильно, поскольну нам еще предстоит полностью осознать проблему предвзятости в ИИ. Даже с самыми лучшими намерениями система с поддержкой ИИ, как обучающих данных, так и математических моделей, отражает узкий опыт и интересы предвзятых людей, которые их программируют. И у всех нас есть свои предубеждения.
Также многие системы с поддержкой ИИ не учитывают разнообразный опыт и характеристики разных людей. Поскольку ИИ решает проблемы, основанные на предвзятых взглядах и данных, а не на уникальных потребностях каждого человека, такие системы обеспечивают уровень соответствия, которого нет в человеческом обществе.
Еще до появления искусственного интеллекта дизайн обычных предметов в нашей повседневной жизни часто ориентировался на определенный тип людей. Например, исследования показали, что автомобили, ручные инструменты, в том числе мобильные телефоны, и даже температурные настройки в офисных помещениях были установлены таким образом, чтобы они подходили для мужчин среднего роста, что позволяло людям разного роста и телосложения, в том числе женщинам оказываться в невыгодном положении.
Когда люди, выходящие за рамки предвзятых норм, игнорируются, маргинализируются и исключаются, ИИ превращается в кафкианского привратника, отказывая в доступе к обслуживанию клиентов, работе, здравоохранению и многому другому. Решения искусственного интеллекта могут сдерживать людей, а не освобождать их от повседневных забот. И этот выбор также может трансформировать некоторые из худших человеческих предрассудков в расистские и сексистские методы найма, а также в глубоко ошибочные и предвзятые результаты приговоров.
6. Страх перед ИИ лишает человечество его благ
Поскольку сегодняшний ИИ работает на наборах данных, передовых статистических моделях и алгоритмах прогнозирования, процесс создания машинного интеллекта в конечном итоге сосредоточен вокруг математики. Но линейная алгебра может делать безумно мощные вещи, если мы не будем осторожны. А что, если люди будут так бояться ИИ, что правительства будут регулировать его таким образом, чтобы лишить человечество многих преимуществ ИИ? Например, программа DeepMind AlphaFold совершила крупный прорыв в предсказании того, как аминокислоты складываются в белки, что позволило ученым определить структуру 98,5% белков человека. Эта веха заложит плодотворную основу для быстрого развития наук о жизни.
Рассмотрим преимущества улучшенного общения и межкультурного взаимопонимания, которые стали возможными благодаря беспрепятственному переводу на любую комбинацию человеческих языков или использованию систем на базе искусственного интеллекта для определения новых методов лечения и лечения болезней.
Резкие регулирующие меры со стороны правительства для защиты от наихудших сценариев развития ИИ также могут иметь неприятные последствия и привести к своим собственным непреднамеренным негативным последствиям. В результате из-за боязни перед этой технологией, мы можем не суметь ее использовать для реального блага.
Подписывайтесь на наш Telegram, чтобы всегда быть в курсе самых последних и горячих новостей @like_freedman
Автор: Ньют Саламандр, аналитик Freedman Сlub Crypto News