Министерство обороны США официально утвердило ряд этических принципов использования технологий искусственного интеллекта.
Как сообщается в пресс-релизе на сайте Пентагона, рекомендации в этой области были выработаны после 15 месяцев консультаций с ведущими экспертами по ИИ и американской общественностью.
Подчеркивается, что утверждение этики применения ИИ согласуется со стратегией Пентагона по легальному и этичному применению систем искусственного интеллекта. Новые принципы будут касаться как боевых, так и небоевых функций подобных систем.
Принятые Пентагоном принципы имеют пять ключевых областей.
Ответственность. Персонал Минобороны будет сохранять должный уровень рассудительности, оставаясь ответственным за разработку, развертывание и применение систем ИИ.
Беспристрастность. Минобороны США будет предпринимать шаги для минимизации нежелательных сдвигов в возможностях систем искусственного интеллекта.
Прозрачность. Возможности Пентагона в области ИИ будут разрабатываться и развертываться таким образом, чтобы персонал обладал должным пониманием применяемых технологий и текущих процессов.
Надежность. Возможности ИИ должны быть однозначными и четко сформулированными. Безопасность и эффективность таких систем будет регулярно тестироваться.
Управляемость. Системы ИИ для военных нужд будут разрабатываться для выполнения своих прямых задач, с возможностью выявлять и избегать непреднамеренных последствий, а также с возможностью их отключения.
В прошлом году Пентагон описал свою первую стратегию военного применения ИИ. В частности, план предусматривает ускорение использования технологии в различных военных сферах: от операций по сбору разведывательной информации до прогнозирования технических проблем на кораблях и самолетах.