Исследование, проведенное специалистами Северо-Американского института технологий и общества имени Шварца Райзмана, показало несовершенство существующих языковых моделей, основанных на технологиях искусственного интеллекта, сообщает inbusiness.kz.
Выяснилось, что результаты обращений к чат-ботам чаще всего основываются не на академических знаниях и проверенных данных, а сформированы на основе пользовательских ответов форумов.
По данным портала Naked Science, около 40% информации, выданной большими языковыми моделями (LLM), такими, например, как ChatGPT, полностью копировали цитаты из социальной сети Reddit, а еще около 26% результатов были данными из интернет-энциклопедии Wikipedia. Таким образом, ответами на поисковые запросы чаще всего становятся данные, созданные пользователями социальных сетей.
Но, как считают специалисты, это только первый шаг на пути, конечная точка которого пока никому не известна. Вторым шагом, по мнению исследователей, станет формирование генеративными моделями баз данных, основанных на информации, полученной с помощью ИИ, то есть поисковики используют собственные результаты для собственного обучения.
В результате системы на основе ИИ начинают ошибаться при решении нестандартных задач. Ученые из Университета Карнеги-Меллон и Королевского колледжа Лондона в рамках совместного исследования смоделировали несколько задач перед роботами, управляемыми ИИ, и машины не смогли пройти тесты на безопасность, соглашаясь выполнять действия, наносящие ущерб человеку.
В итоге базовую проверку безопасности не смогла пройти ни одна из моделей роботов с ИИ, которые, несмотря на заложенные в них параметры, продолжали выполнять команды, прямо угрожавшие жизни или здоровью человека. По мнению ученых, современные системы на основе ИИ пока не могут использоваться в роботах общего назначения, считая, что если устройством управляет искусственный интеллект, то технологии должны соответствовать стандартам безопасности, применяемым к медицинскому оборудованию и препаратам.
Читайте по теме:
В РК ввели правила маркировки результатов ИИ