Сундар Пичаи / REUTERS

Специалисты компании Google не будут заниматься разработками в сфере искусственного интеллекта в военных целях.

Об этом сообщил генеральный директор компании Сундар Пичаи, передает РБК.

В корпоративном блоге Google он опубликовал семь основных принципов, в соответствии с которыми будут продолжаться работы в этом направлении.

Видео дня

Опубликованные главой Google принципы были разработаны после протестов сотрудников компании против работы на Пентагон. Компания планировала участвовать в проекте по созданию искусственного интеллекта для военных беспилотников.

Сундар Пичаи напомнил, что уже сейчас технологии искусственного интеллекта и машинного обучения имеют большое общественное значение. Системы с ИИ используются для прогнозирования риска возникновения пожаров, борьбы с раком, сельскохозяйственных работ и многих других целей.

Читайте такжеНесколько сотрудников Google уволились, протестуя против сотрудничества с Пентагоном - СМИ

"Мы признаем, что такая мощная технология вызывает столь же значимые вопросы о ее будущем использовании. То, как и с какими целями ИИ разрабатывается и используется, окажет значительное влияние на наше общество в будущем. Являясь лидером в области разработки искусственного интеллекта, мы чувствуем большую ответственность. Поэтому сегодня мы объявляем семь принципов, которых будем придерживаться в нашей работе в будущем", - написал он.

В новых принципах работы компании говорится, что исследования в сфере искусственного интеллекта будут проводиться Google со всей ответственностью. Специалисты компании не будут заниматься созданием ИИ для "потенциально опасных" проектов. Все разработки должны приносить пользу обществу и обеспечивать безопасность людей, пообещал Сундар Пичаи. Особо он подчеркнул, что искусственный интеллект должен оставаться под контролем людей.

"Наши технологии ИИ будут находиться под соответствующим человеческим руководством и контролем", - заявил глава Google.

Кроме того, в числе базовых принципов разработки ИИ будут конфиденциальность данных и безопасность применения.

Отдельно Сундар Пичаи выделил четыре "запретных направления" работы компании в сфере ИИ.

По его словам, Google никогда не будет заниматься разработкой ИИ для тех целей, которые могут принести вред обществу, в целях нарушения прав человека и международных правовых норм. Особо он подчеркнул, что искусственный интеллект Google не будет применяться для создания оружия и в интересах военных.

Читайте такжеGoogle научил робота говорить "по-человечески"

Как сообщал УНИАН, ранее более трех тысяч сотрудников Google подписали петицию, в которой потребовали, чтобы компания разорвала контракт с Пентагоном и разработала политику, запрещающую работать с военными. Однако работа над Maven не была прекращена. Кроме того, Google считается одним из главных претендентов на еще один крупный контракт Пентагона.

Руководство Google в ответ на претензии заявило, что предоставляет Пентагону программное обеспечение с открытым кодом, то есть они могли бы использовать его без помощи компании. Оно также подчеркнуло, что искусственный интеллект не будет использоваться для нападений.

Напомним, специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation пришли к выводу, что искусственный интеллект к 2040 году может стать угрозой ядерной стабильности и нивелировать стратегию ядерного сдерживания.