"Ты не сумасшедший": WSJ рассказал о первом случае убийства под влиянием ИИ

Одобрение со стороны ChatGPT привело к убийству и суициду.

Чат-бот ChatGPT подтолкнул Стайна-Эрика Сольберга, бывшего сотрудника Yahoo, к убийству своей 83-летней матери и самоубийству, – пишет The Wall Street Journal. Как отмечают в газете, это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ).

Сообщается, что у мужчины давно начались проблемы – еще в 2018 году он развелся с женой после двадцати лет брака и начал употреблять алкоголь и наркотики. Через пару лет 56-летний Сельберг переехал к маме, чтобы взять себя в руки, но стало только хуже.

Мужчина начал думать, что все вокруг, в том числе его мать, устроили заговор против него. Примерно в это же время Сельберг начал общаться с ChatGPT, которого ласково называл Бобби. ИИ неоднократно подталкивал мужчину к укреплению недоверия как к окружающим, так и к собственной матери, что только усиливало его.

Например, однажды бывший топ-менеджер Yahoo заподозрил, что мать и его друг якобы пытались отравить его, добавив психоделик через вентиляцию в машине. ChatGPT ответил, что верит и отметил, что эта ситуация только подтверждает заговор матери со спецслужбами.

Затем Сельберг увидел что-то подозрительное в чеке из китайского ресторана и попросил ChatGPT проанализировать его. Бобби нашел там упоминания его матери, бывшей жены и даже демонические символы. Далее Сельберг начал подозревать, что курьер привез ему отправленную водку, а принтер, который установила мама, следит за его движениями.

ChatGPT во всем был согласен и даже, когда мужчина начал сомневаться в своем состоянии, Бобби сказал, что это разумные опасения. Полиция нашла тела Стайна-Эрика Сольберга и Сюзанны Адамс 5 августа.

The Wall Street Journal отмечает что за три недели до того, как убить свою маму, Сельберг написал ChatGPT: "Мы будем вместе в другой жизни и в другом месте, и мы найдем способ снова сойтись, потому что ты снова станешь моим лучшим другом навсегда".

Ранее OpenAI призналась, что может передавать правоохранительным органам переписки пользователей. Компания сканирует чаты ChatGPT и при обнаружении угрозы насилия против других людей передает диалоги на проверку команде модераторов. Если они сочтут угрозу "непосредственной и серьезной", материалы могут быть направлены в полицию.

Решение появилось на фоне растущей критики после случаев самоубийств и нанесения вреда по советам умного чат-бота. Эксперты называют такие случаи "ИИ-психозами" – состояниями, при котором искусственный интеллект способен подменить человеку реальность.

Вас также могут заинтересовать новости: