ИИ: в чем его опасность для детей и их родителей
В чем заключается опасность ИИ для детей, и их родителей? Этот вопрос становится все более актуальным по мере развития искусственного интеллекта. Новая рекламная видеокампания, созданная искусственным интеллектом и набравшая миллионы просмотров, может заставить родителей задуматься о том, какую информацию они публично публикуют о своих детях.
Видео Deutsche Telekom использует технологии искусственного интеллекта, чтобы состарить 9-летнюю девочку Эллу. На ее примере показано, как цифровой след ребенка потенциально может быть использован не по назначению, и навредить.
«Я знаю, что для вас эти фотографии — просто воспоминания, но для других они — данные», — говорит сгенерированная искусственным интеллектом Элла паре, играющей ее родителей в постановочном эксперименте. «А для меня, может быть, начало ужасного будущего».
Родители Эллы в видео (актеры), описываются как часто публикующие в Интернете сообщения о ее жизни. Они не подозревают о потенциальном вреде, который он может причинить ей в будущем.
В чем опасность ИИ для детей
Сейчас родители часто размещают изображения своих детей в социальных сетях. Но после того, как они там оказываются, очень сложно узнать, где и кто может его использовать, и в каких целях.
К сожалению, изображения детей могут быть использованы мошенниками для издевательств над ними в социальных сетях, создания контента, где присутствует насилие и так далее.
Уже сейчас злоумышленники используют различные технологии и сервисы для манипулирования контентом, чтобы изменить безобидные фотографии и видео, из учетной записи ребенка в социальной сети.
Можно указать на оценку банка Barclays, согласно которой 7,4 миллиона случаев мошенничества с идентификацией могут быть связаны с чрезмерным раскрытием родителями личной информации о своих детях в сети.
ИИ может создавать реалистичные копии образа детей
Искусственный интеллект уже сейчас способен идентифицировать и собирать изображения детей, а затем использовать их для создания профилей в любых целях. ИИ облегчает преступникам создание реалистичного материала из общедоступных изображений или создание совершенно нового контента.
Для многих родителей пока эта опасность выглядит абстрактной до тех пор, пока не коснется их семьи.
Согласно отчету ЮНИСЕФ и Всемирного экономического форума, риски варьируются от вопросов конфиденциальности до психологических и поведенческих нарушений у детей и подростков. Алгоритмы на основе ИИ узнают, какой контент дети (или кто угодно) ищут и с чем взаимодействуют, заполняя им свои каналы, даже если это может быть вредно для них или окружающих. Хотя платформы социальных сетей предприняли шаги для смягчения проблемы, они не смогли ее искоренить полностью.
Сбор данных также может потенциально навредить детям, создавая предвзятые результаты в отношении определенных демографических групп.
Например, алгоритмы распознавания лиц могут не работать с более темными оттенками кожи, а генеративные программы, использующие онлайн-текст, могут фиксировать ненавистнические высказывания или оскорбительные стереотипы. Если дети и подростки не могут распознать потенциальные предубеждения ИИ, они могут подвергаться риску развития негативных моделей мышления.
ИИ также может усугубить неравенство и сохранить предвзятость. Например, школы, использующие машинное обучение и технологии искусственного интеллекта для сортировки студенческих заявлений, могут непреднамеренно, но систематически исключать определенные типы кандидатов. В Англии новый алгоритм ИИ неверно оценивал экзамены студентов, лишая многих надежд на поступление в лучшие университеты.
Возможно, одна из самых серьезных проблем с ИИ — это потенциальное снижение навыков критического мышления. По мере того как ИИ становится все более распространенным, крайне важно убедиться, что дети не полагаются исключительно на автоматизацию и компьютеры для решения своих проблем.
Обеспокоен ИИ даже глава SEC Гэри Генслер. И его опасения не беспочвенны, иначе бы Белый Дома не призвал компании, занимающиеся ИИ, взять на себя ряд обязательств по обеспечению безопасности.
В чем опасность ИИ для общества
Модели искусственного интеллекта могут быть трудны для понимания даже тем, кто работает и создает их. Это приводит к отсутствию прозрачности в отношении того, как и почему ИИ приходит к своим выводам, что приводит к отсутствию объяснения того, какие данные используют алгоритмы ИИ или почему они могут принимать предвзятые или небезопасные решения.
Автоматизация рабочих мест с помощью ИИ является насущной проблемой. К 2030 году задачи, на которые в настоящее время отводится до 30 процентов рабочего мест в экономике США, могут быть автоматизированы, при этом чернокожие и латиноамериканские сотрудники останутся особенно уязвимыми для изменений. Goldman Sachs даже заявляет, что 300 миллионов рабочих мест с полной занятостью могут быть потеряны из-за автоматизации ИИ.
Даже профессии, требующие ученых степеней и дополнительной подготовки после окончания колледжа, не застрахованы от вытеснения ИИ. ИИ уже оказывает значительное на медицину, и на очереди юриспруденция и бухгалтерский учет.
Онлайн-медиа и новости стали еще более мрачными в свете проникновения дипфейков в политическую и социальную сферы. Технология позволяет легко заменить изображение одной фигуры на другую на картинке или видео. В результате у злоумышленников появляется еще одна возможность создавать кошмарный сценарий. В нем практически невозможно отличить заслуживающие доверия новости от ложных.
Чрезмерное доверие к технологии искусственного интеллекта может привести к потере человеческого влияния и недостатку человеческого функционирования в некоторых частях общества. Например, использование ИИ в здравоохранении может привести к снижению сострадания. Слишком частое взаимодействие с системами ИИ может даже привести к ухудшению общения и социальных навыков со сверстниками.
Какие еще угрозы может нести ИИ для детей, родителей и общества? Создается впечатление, что их с каждым годом будет все больше, и не перевесят ли они преимущества искусственного интеллекта?
Как же создать для детей безопасную среду, где можно использовать ИИ
- Один из лучших способов обеспечить безопасность ребенка в Интернете — контролировать его использование сети. Даже если они недовольны этим, это абсолютно один из лучших и наиболее эффективных способов защитить их, когда они просматривают веб-страницы или используют ИИ.
- Можно установить пароль, который требуется всякий раз, когда им нужен доступ к различным веб-сайтам, приложениям и программам или инструментам искусственного интеллекта.
- Рекомендуется использовать инструменты фильтрации контента, чтобы ограничить доступ к различным аспектам Интернета. Эти инструменты просты в установке и использовании, и они гарантируют, что дети будут видеть только то, что они должны видеть, а не то, что им не следует. Некоторые из этих инструментов позволяют блокировать определенные видео или каналы YouTube,
- Самое главное, каждый родитель должен информировать своих детей о важности безопасности в Интернете и о том, как ее реализовать. Установление границ в раннем возрасте, использование защиты паролем и открытое обсуждение ИИ и других технологий — одни из лучших способов обеспечить безопасность детей сейчас и в будущем. Родители должны быть в курсе последних технологий искусственного интеллекта и того, как они могут принести пользу своим детям и какой вред.
Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman
Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News