В отчете определены три основные категории рисков, связанных с ИИ / фото ua.depositphotos.com

В новом докладе говорится, что искусственный интеллект общего назначения (ИИ) может повысить благосостояние, процветание и научные исследования в будущем, но также может использоваться для широко распространенной дезинформации и мошенничества, нарушения рабочих мест и усиления неравенства.

Как пишет The Independent, исследование представляет собой первую версию Международного научного отчета о продвинутой безопасности ИИ, о котором впервые было объявлено на саммите по безопасности ИИ под руководством Великобритании в Блетчли-Парке в ноябре и было проведено экспертами по ИИ из 30 стран, включая Великобританию, США и Китай,а также ООН и ЕС.

Помимо подчеркивания потенциальных преимуществ и рисков этой технологии, в докладе предупреждается, что среди экспертов нет единого мнения по ряду вопросов, касающихся ИИ, включая состояние текущих возможностей ИИ и то, как они могут развиваться с течением времени, а также вероятность экстремальных событий и возникают риски, такие как потеря контроля над технологией.

Видео дня

Промежуточный отчет был составлен независимыми экспертами, назначенными 30 странами, представителями ЕС и ООН, которые присутствовали на первом саммите по безопасности ИИ, но еще не получили существенного вклада от технологических компаний и компаний, занимающихся ИИ.

В отчете определены три основные категории рисков, связанных с ИИ: злонамеренное использование, риски сбоев и системные риски.

В докладе говорится, что злонамеренное использование может включать крупномасштабное мошенничество и мошенничество, дипфейки, дезинформацию, помощь в кибератаках или разработке биологического оружия.

Потенциальные риски, связанные со сбоями в работе ИИ, включали опасения по поводу предвзятости, когда она была непреднамеренно встроена в системы и затем приводила к непропорциональному воздействию на разных людей, а также опасения по поводу потери контроля над системами ИИ, в частности, над любыми автономными системами ИИ.

Среди опасений по поводу потенциальных системных рисков были его возможное влияние на рынок труда, опасения по поводу концентрации его развития на Западе и в Китае, создающей неравную систему с точки зрения доступа к технологиям, а также опасения по поводу рисков, которые ИИ представляет для конфиденциальность посредством моделей, обучающихся на личных или конфиденциальных данных.

Также было подчеркнуто влияние развития ИИ на закон об авторском праве и влияние на климат развития ИИ – энергоемкого процесса.

В нем делается вывод, что будущее ИИ общего назначения "неопределенно" с "очень хорошими" и "очень плохими" результатами, но в этой технологии нет ничего неизбежного, и необходимы дальнейшие исследования и обсуждения.

Отчет станет отправной точкой для дискуссий на следующем саммите AI – Сеульском саммите AI – который пройдет виртуально в Южной Корее на следующей неделе.

Новости об искусственном интеллекте

Исследователи Массачусетского технологического института опубликовали исследование, посвященное "лживому ИИ". Оказывается, некоторые системы искусственного интеллекта уже научились обманывать людей, в том числе те из них, что были обучены оставаться честными.

Исследователи обнаружили, что эти системы искусственного интеллекта могут выполнять такие задачи, как обманывать игроков в онлайн-играх или обходить CAPTCHA (проверки "Я не робот"). Эти, казалось бы, тривиальные примеры могут иметь серьезные последствия в реальной жизни.

Вас также могут заинтересовать новости: