ChatGPT глупеет: чат-бот стал выдавать все больше неправильны ответов
Ученые Стэнфорда и Калифорнийского университета в Беркли обнаружили, что более поздние версии ChatGPT все реже дают правильные ответы на одинаковые вопросы.
Чат-бот OpenAI на основе искусственного интеллекта ChatGPT, со временем становится все глупее. Исследователи не могут понять, почему так происходит. Они собираются провести дополнительные проверки чат-бота, чтобы понять, что с ним происходит.
Возможности новых моделей ChatGPT-4 ухудшаются
Чтобы проверить, насколько надежны различные модели ChatGPT, исследователи Линцзяо Чен, Матей Захария и Джеймс Цзоу попросили модели ChаtGPT-3.5 и ChаtGPT-4 решить ряд математических задач, ответить на деликатные вопросы, написать новые строки кода и провести пространственное мышление из подсказок.
Согласно исследованию, в марте ChаtGPT-4 был способен идентифицировать простые числа с точностью 97,6%. В том же тесте, проведенном в июне, точность GPT-4 упала до 2,4%.
Напротив, более ранняя модель GPT-3.5 улучшила идентификацию простых чисел за тот же период времени. Когда дело дошло до генерации строк нового кода, возможности обеих моделей существенно ухудшились в период с марта по июнь.
Исследование показало, что ответы ChatGPT на деликатные вопросы — с некоторыми примерами, показывающими акцент на этнической принадлежности и поле — позже стали более лаконичными при отказе отвечать. Более ранние версии чат-бота предоставили подробные объяснения, почему он не может ответить на некоторые деликатные вопросы. Однако в июне модели просто извинились перед пользователем и отказались отвечать.
«Поведение одного и того же сервиса [большая языковая модель] может существенно измениться за относительно короткий промежуток времени», — пишут исследователи, отмечая необходимость постоянного мониторинга качества модели ИИ.
Ученые советуют пользователям тщательно проверять информацию, которую им предлагает чат-бот
Ученые рекомендовали пользователям и компаниям, которые полагаются на услуги чат-ботов внедрить какую-либо форму анализа, чтобы гарантировать, что чат-бот выдает более-менее точные ответы. Напомним, что в начале июня компания OpenAI сообщила, что создаст команду, команды, которая поможет управлять рисками, связанными со сверхинтеллектуальной системой искусственного интеллекта.
Таким образом, чат-бот перестал быть надежным помощником для генерации контента.
Подпишись на Tелеграм канал, чтобы быть в курсе новостей криптомира и не пропустить грядущий бычий цикл в крипте!! Переходи по ссылке прямо сейчас — https://t.me/like_freedman
Автор: Вадим Груздев, аналитик Freedman Сlub Crypto News