Специалисты компании Google не будут заниматься разработками в сфере искусственного интеллекта в военных целях.
Об этом сообщил генеральный директор компании Сундар Пичаи, передает РБК.
В корпоративном блоге Google он опубликовал семь основных принципов, в соответствии с которыми будут продолжаться работы в этом направлении.
Опубликованные главой Google принципы были разработаны после протестов сотрудников компании против работы на Пентагон. Компания планировала участвовать в проекте по созданию искусственного интеллекта для военных беспилотников.
Сундар Пичаи напомнил, что уже сейчас технологии искусственного интеллекта и машинного обучения имеют большое общественное значение. Системы с ИИ используются для прогнозирования риска возникновения пожаров, борьбы с раком, сельскохозяйственных работ и многих других целей.
"Мы признаем, что такая мощная технология вызывает столь же значимые вопросы о ее будущем использовании. То, как и с какими целями ИИ разрабатывается и используется, окажет значительное влияние на наше общество в будущем. Являясь лидером в области разработки искусственного интеллекта, мы чувствуем большую ответственность. Поэтому сегодня мы объявляем семь принципов, которых будем придерживаться в нашей работе в будущем", - написал он.
В новых принципах работы компании говорится, что исследования в сфере искусственного интеллекта будут проводиться Google со всей ответственностью. Специалисты компании не будут заниматься созданием ИИ для "потенциально опасных" проектов. Все разработки должны приносить пользу обществу и обеспечивать безопасность людей, пообещал Сундар Пичаи. Особо он подчеркнул, что искусственный интеллект должен оставаться под контролем людей.
"Наши технологии ИИ будут находиться под соответствующим человеческим руководством и контролем", - заявил глава Google.
Кроме того, в числе базовых принципов разработки ИИ будут конфиденциальность данных и безопасность применения.
Отдельно Сундар Пичаи выделил четыре "запретных направления" работы компании в сфере ИИ.
По его словам, Google никогда не будет заниматься разработкой ИИ для тех целей, которые могут принести вред обществу, в целях нарушения прав человека и международных правовых норм. Особо он подчеркнул, что искусственный интеллект Google не будет применяться для создания оружия и в интересах военных.
Читайте такжеGoogle научил робота говорить "по-человечески"
Как сообщал УНИАН, ранее более трех тысяч сотрудников Google подписали петицию, в которой потребовали, чтобы компания разорвала контракт с Пентагоном и разработала политику, запрещающую работать с военными. Однако работа над Maven не была прекращена. Кроме того, Google считается одним из главных претендентов на еще один крупный контракт Пентагона.
Руководство Google в ответ на претензии заявило, что предоставляет Пентагону программное обеспечение с открытым кодом, то есть они могли бы использовать его без помощи компании. Оно также подчеркнуло, что искусственный интеллект не будет использоваться для нападений.
Напомним, специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation пришли к выводу, что искусственный интеллект к 2040 году может стать угрозой ядерной стабильности и нивелировать стратегию ядерного сдерживания.