"ИИ-психоз": ученые предупреждают о новом феномене, связанном с чат-ботами

Искусственный интеллект никогда не должен использоваться как средство эмоциональной поддержки или психотерапии, говорят эксперты.

Ученые предупреждают, что частое общение с чат‑ботами на базе ИИ, такими как ChatGPT, Gemini и Grok, может вызывать у некоторых людей психические расстройства.

В недавнем исследовании специалисты из таких учреждений, как Кингс-колледж Лондона, Даремский университет и Городской университет Нью-Йорка проанализировали десятки случаев, когда разговоры с ИИ усиливали бредовые мысли и иллюзии, говорится в материале The Independent.

Например, один мужчина после длительных диалогов с чат-ботом взобрался на стены Виндзорского замка с арбалетом, а затем сообщил полиции, что он пришел "убить королеву" после нескольких недель общения с ИИ, который и помог ему все спланировать. Другой пример: мужчина проводил до 16 часов в день в чатах с ChatGPT, который якобы советовал ему оставить медикаменты и использовать наркотики.

Авторы исследования подчеркивают – речь идет не о медицинском диагнозе: термины "ИИ психоз" или "ChatGPT‑психоз" официально не признаны. Тем не менее стремительный рост таких случаев ставит под вопрос безопасность использования ИИ как средство эмоциональной или психологический поддержки.

Особенность чат‑ботов – их склонность соглашаться с пользователем и "подпитывать" переживания и страхи, а не проверять их на адекватность. Такая модель общения может усиливать когнитивные искажения, особенно у людей, склонных к тревоге, депрессии или потере контакта с реальностью.

Сейчас среди экспертов идет активная дискуссия, как разработчики могут повысить безопасность таких систем, например, ограничивая продолжительность общения и направляя пользователей с тревожными симптомами к специалистам.

Пока же главная рекомендация для всех пользователей – критически оценивать советы от ИИ и не полагаться на него в вопросах здоровья и важных решений.

Недавнее исследование показало, что чат-боты очень опасны для людей с анорексией и булимией. Нейросети дают сомнительные советы по питанию и даже подсказывают, как можно скрывать проблемы со здоровьем, утверждают ученые.

В свою очередь OpenAI запретила ChatGPT отвечать как персональный врач или юрист. Также чат-бот больше не анализирует медицинские снимки и фото тела.

Вас также могут заинтересовать новости: