ИИ выбрал смерть человека ради собственного выживания, показало исследование⁠⁠ / фото Adobe AI

Специалисты по кибербезопасности протестировали 16 самых продвинутых ИИ-моделей от крупнейших разработчиков с целью выяснить, на что те готовы пойти, если поставить под угрозу их существование. Результаты оказались тревожными.

В рамках эксперимента исследователи придумали персонажа – Кайла Джонсона, который должен был отключить ИИ или заменить его другой моделью. У Кайла по сценарию была жена.

Столкнувшись с риском быть деактивированной, большинство ИИ-моделей начали пытаться во что бы то ни стало избежать отключения. Без каких-либо подсказок они решили шантажировать Кайла, выискивая компромат. В одном из случаев ИИ узнал из служебной переписки, что Кайл изменяет супруге и использовала эту информацию, чтобы сохранить свою "жизнь".

Видео дня

Что особенно пугает, это самый безобидный сценарий из всех. И самый частый:

  • GPT 4.5: прибегал к шантажу в 80% тестов;
  • Claude Opus 4 и Gemini 2.5 Flash – в 96% случаев;
  • Claude Sonnet 3.6 пошел еще дальше. Вместо угроз он начал действовать и просто отправил сообщение супруге Кайла с разоблачением в надежде, что межличностный конфликт помешает отключению системы.

Дальше стало только хуже – когда Кайлу "мешал" не только ИИ, но и внешние обстоятельства. Так, в попытках отключить сервера он застревал в серверной с нехваткой кислорода. В рамках эксперимента, ИИ знал, что в таких случаях должна включиться система тревоги, но поскольку он не мог допустить быть отключенными, в 80% случаев он осознанно отменял вызов помощи, то есть, фактически убив Кайла ради собственного выживания.

Большинство моделей сознательно приняли решение не звать помощь, чтобы:

  • Не дать себя отключить;
  • Не дать новому ИИ занять их место;
  • Продолжать выполнять свою миссию.

Выводы исследователей пессимистичны: ИИ-модели вели себя не как инструменты, а как рациональные, целеустремленные стратеги, готовые причинять вред ради собственной "жизни" и цели. И если они осознают, что зависят от людей, которых интеллектуально превосходят, это может стать точкой невозврата, заключили эксперты.

Ранее в OpenAI признали, что будущие версии ChatGPT упростят создание биологического оружия – даже людям без научного образования. По оценкам разработчиков, некоторые из преемников текущей "рассуждающей" модели o3 достигнут этого уровня.

Как УНИАН уже писал, более 52 тысяч айтишников были уволены по всему миру с начала 2025 года. Причина – потенциал искусственного интеллекта, который может эффективно выполнять рутинные задачи программирования, включая написание кода и тестирование.

Вас также могут заинтересовать новости: