Власти стран-членов ядерного клуба полагают наличие у них ядерного оружия гарантией безопасности / фото usa.gov

Искусственный интеллект к 2040 году может стать угрозой ядерной стабильности и нивелировать стратегию ядерного сдерживания.

К такому выводу пришли специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation, передает N+1.

По мнению некоторых специалистов, для нарушения равновесия даже не потребуется встраивания искусственного интеллекта в ядерное оружие; само его существование может спровоцировать того или иного члена ядерного клуба к нанесению первого удара.

Видео дня

Читайте такжеИскусственный интеллект может стать "бессмертным диктатором" - Маск

Эксперты, опрошенные исследователями RAND Corporation, разделились на несколько лагерей. Умеренные предположили, что искусственный интеллект позволит лишь усовершенствовать имеющиеся системы ядерного вооружения, но никак не повлияет на стратегию ядерного сдерживания и ядерный паритет. При этом они пришли к умозаключению, что к 2040 году для искусственного интеллекта все еще будет серьезной проблемой сбор и обработка разведывательных данных о подготовке противника к применению ядерного оружия, а также к приоритизации целей противника.

В свою очередь "алармисты" заявили, что искусственный интеллект в любом случае представляет опасность для ядерной стабильности. По мнению этого лагеря экспертов, одной из ядерных держав достаточно будет просто решить (неважно, истинно или ложно), что искусственный интеллект в системах защиты противника может свести на нет ответный удар в случае ядерного конфликта, чтобы эта держава отказалась от тактики второго удара и переключилась на стратегию превентивного удара, попутно начав наращивать ядерный арсенал.

Еще одна группа экспертов объявила, что искусственный интеллект в системах ядерного вооружения может быть применен, и это может как упрочить ядерную стабильность, так и разрушить ее. С одной стороны, страны с «умным» ядерным оружием и системами защиты от него могут решить, что применение такого вооружения приведет к гарантированному взаимоуничтожению. Это может оказаться сдерживающим фактором. С другой стороны, «умные» системы могут дать правительствам ощущение технологического превосходства, гарантирующего победу в возможной войне. В этом случае ядерная война станет реальнее.

При этом все эксперты, опрошенные RAND Corporation, пришли к выводу, что к 2040 году ни одна из стран - членов ядерного клуба не сможет создать машину судного дня с искусственным интеллектом. Гипотетическая машина судного дня рассматривается теоретиками как некая боевая система, способная инициировать ответный ядерный удар даже в том случае, если все руководство страны будет уничтожено ядерным ударом противника. Подобная машина обычно рассматривается в рамках стратегии гарантированного взаимного уничтожения.

Напомним, ранее в 2017 году бизнесмен Илон Маск заявлял, что искусственный интеллект может начать третью мировую войну. Позже он назвал эту технологию самой страшной опасностью для человечества.

Также, летом прошлого года глава Facebook Марк Цукерберг назвал "безответственной" позицию основателя Tesla и SpaceX Илона Маска относительно угроз, которые несет человечеству развитие искусственного интеллекта. "Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно", - заявил создатель Facebook.