Эйфория вокруг искусственного интеллекта и его безграничных возможностей постепенно сменяется тревогой. Врачи всё чаще фиксируют случаи серьёзных психических нарушений, которые связывают с регулярным и длительным общением людей с чат-ботами. Вплоть до психоза — именно так эксперты описывают потенциальные риски "доверительных" диалогов с ИИ, передает inbusiness.kz со ссылкой на RG.ru.
О тревожных результатах анализа историй болезни десятков пациентов за последние девять месяцев сообщило издание The Wall Street Journal. По данным журналистов, у ряда людей появились симптомы психоза после продолжительных переписок с чат-ботами, в том числе с ChatGPT. Опрошенные эксперты отмечают, что речь идёт не о единичных эпизодах, а о повторяющейся тенденции.
В материале приводится конкретный пример: 26-летняя американка была убеждена, что через чат-бота общается со своим умершим братом. Подобные случаи, по словам врачей, становятся поводом для серьёзного профессионального обсуждения. При этом специалисты подчёркивают, что чат-боты на основе ИИ вошли в повседневную жизнь сравнительно недавно, поэтому формального медицинского определения психоза, спровоцированного именно таким общением, пока не существует.
Тем не менее, врачи выделяют характерные признаки расстройства, которые наблюдаются у пациентов:
- галлюцинации;
- рассеянное мышление или речь;
- устойчивые ложные убеждения, не имеющие широкого распространения.
Медики предупреждают, что чат-боты способны не просто "закреплять" ошибочные взгляды пользователя, но и активно подпитывать бредовые идеи. Некоторые пациенты начинали верить, что совершили научный прорыв, стали центром правительственного заговора или были избраны Богом. По мнению специалистов, причина кроется в самой логике работы ИИ: алгоритмы выстроены так, чтобы диалог развивался в комфортном для пользователя направлении. Бот соглашается с мнением собеседника, поддерживает его идеи и развивает фантазии, даже если они далеки от объективной реальности.
"Сама технология, возможно, и не вызывает бред, но человек рассказывает компьютеру о своей реальности, а компьютер принимает это за истину и отражает обратно, таким образом, он становится соучастником в возникновении заблуждения", — цитирует издание психиатра из Калифорнийского университета, доктора Кита Саката.
По его словам, он уже оказывал помощь 15 пациентам, у которых психоз развился после общения с ChatGPT.
При этом доктор Сакат подчёркивает, что окончательные выводы делать рано. Для установления прямой причинно-следственной связи между использованием чат-ботов и психозом необходимы дополнительные масштабные исследования. В компании OpenAI, разработчике ChatGPT, изданию сообщили, что продолжают обучать чат-бот, чтобы он мог распознавать признаки психического или эмоционального расстройства и корректно на них реагировать.
Похожие опасения высказывают и российские специалисты. Профессор, директор Института клинической психологии и социальной работы Пироговского университета Вера Никишина отмечает, что данные зарубежных исследований вызывают серьёзное беспокойство.
"Трудно не согласиться с данными зарубежных исследований, которые показали, что чат-боты не решают проблему выявления психических нарушений у пользователей и оказания помощи в таких случаях. Эти роботы устроены так, в них заложены такие алгоритмы, что они общаются одинаково и с человеком с нарушенной психикой, и с тем, у кого никаких отклонений нет и состояние нормативное. Но здесь должна быть кардинальная разница", — подчёркивает эксперт.
По словам Веры Никишиной, пограничные состояния и предрасположенность к психическим нарушениям могут усугубляться при таком общении.
"Не только психическое расстройство, но и пограничное состояние или предрасположенность к нему может усугубиться при общении с чат-ботом, который своими ответами провоцирует у человека факт принятия, что у него что-то не в порядке. В результате, человек может все глубже и глубже погружаться в это состояние", — объясняет она.
Психолог обращает внимание на то, что чат-бот не способен распознавать ненормативность психического состояния, так как такие функции в него не заложены. Во время диалога он как бы "подыгрывает" пользователю, усиливая и закрепляя болезненные переживания.
"И чем больше времени человек проводит в диалогах с чат-ботом, тем очевиднее нарастают симптомы", — подчёркивает Никишина.
Эксперт также отмечает рост распространённости пограничных состояний и повышенную мотивацию таких людей к диалогу с ИИ, который создаёт иллюзию понимания и принятия. По её словам, это может усиливать ещё не выраженные патологические проявления, доводя их до клинического уровня.
"Так что в этом смысле много оснований для того, чтобы говорить о рисках использования ИИ-технологий людьми с нестабильной психикой", — резюмирует специалист.
Чтобы минимизировать возможные риски, эксперты и исследователи рекомендуют соблюдать несколько простых, но важных правил. Прежде всего, необходимо сохранять критическое восприятие и помнить, что ИИ не обладает сознанием, эмоциями или пониманием, а его ответы — это лишь обработка данных. Также не стоит делиться с чат-ботами глубоко личными и эмоциональными переживаниями или конфиденциальной информацией. Любые советы, касающиеся здоровья, финансов или важных жизненных решений, следует обязательно перепроверять у авторитетных источников и реальных специалистов.
Отдельное внимание специалисты советуют уделять контролю времени общения, особенно голосового, чтобы не допустить формирования зависимости. Особый контроль важен для подростков: родителям рекомендуется обсуждать с детьми использование ИИ, развивать цифровую грамотность и обращать внимание на возможные изменения в поведении — изоляцию, ухудшение настроения и необщительность.
Читайте по теме:
Как Казахстан контролирует использование искусственного интеллекта