ИИ может очистить интернет от лжи, если политики ему позволят / Фото: megael.com.pl

Кто же знал, что ситуация может стать настолько тяжелой? За последние две недели Facebook обнаружил новые фальшивые страницы, которыми могут пользоваться агенты России.

Президент США обвинил Twitter в умышленном сокращении видимости консервативных политиков. А Apple, Facebook, YouTube и Pinterest почти одновременно удалили учетные записи правого радикала Алекса Джонса и его медиа-империи Infowars. Это вызвало дискуссии на тему, могут ли технологические гиганты устанавливать границы свободы слова.

Так или иначе, все эти события касаются решений, сделанных людьми, но выполненных алгоритмами, пишет Wall Street Journal.

Видео дня

Читайте такжеThe Economist: Политиков можно заменить более эффективными работами, но стоит ли?

Сегодня существует много инструментов на основе искусственного интеллекта, с помощью которых можно выявить дезинформацию, ботов, фальшивые учетные записи, злокачественные кампании влияния, цель которых исказить то, что мы слышим и видим. Проблема лишь в том, что до сих пор нет консенсуса относительно того, как их использовать.

Технологические гиганты уже говорят о том, как некоторые из этих инструментов стоит применять. Facebook использует искусственный интеллект для выявления злокачественного контента: от языка ненависти до риторики, которая может свидетельствовать о риске совершения самоубийства. Twitter применяет эту технологию для выявления тех, кто склонен к домагательствам. А YouTube с помощью искусственного интеллекта борется с распространением видео террористов на своей платформе.

Несмотря на все эти усилия, исследователи и политики думают над тем, как повысить ответственность людей, которые руководят этими компаниями. В лучшем случае, технологические гиганты пойдут на сотрудничество в разработке прозрачных инструментов. Издание отмечает, что проблемы распространения языка ненависти, призывов к насилию, государственной пропаганды и дезинформации на самом деле связаны между собой. Поэтому для их решения можно использовать одни и те же инструменты.

Читайте такжеAtlantic Council: Международные СМИ повторяют пропаганду Кремля об Украине даже после 4 лет войны

Взять для примера связь между страницами террористов и кампаниями по распространению дезинформации. И одно, и другое можно выявить одними и теми же методами, уверяет эксперт Государственного университета Аризоны Хамирдреза Алвари. Обычно попытки обнаружить страницы зловещих актеров в социальных сетях опираются на лексические фильтры. Но террористы и пропагандисты научились их обманывать. Алвари разработал алгоритм, который ищет определенные страницы, контент которых распространяется на платформе нетипично быстро. Поскольку это и является целью как пропагандистов, так и террористов, его метод может помочь очистить соцсети от контента и одних, и других. Но людям все равно нужно принимать окончательное решение, чтобы избежать ошибок.

Алгоритмы могут также обнаруживать и прикрывать так называемые «палаты эхо» в социальных сетях, в которые люди вступают, чтобы общаться только с людьми, которые разделяют их политические взгляды и манеру поведения. Таким образом, это изолирует пользователей от альтернативных аргументов и создает информационный пузырь, в котором они живут.

Читайте такжеЕврокомиссия требует от соцсетей бороться с фейковыми новостями

Профессор компьютерных наук Филиппо Менендез вместе с коллегами установили, что поисковые системы обычно отсылают пользователей к различным источникам информации с различными доводами и точками зрения. В то время, как Facebook способствует усилению однобоких предубеждений пользователей. Twitter, как оказалось, еще хуже в этом. Некоторые компании уже начали настраивать свои алгоритмы для решения проблемы. Также ученые работают над системами на основе искусственного интеллекта, способные эффективно обнаруживать вредоносные сплетни.

Однако, существующие инструменты борьбы с вредоносным контентом столкнулись с проблемами. Их применение подняло вопрос о том, где проходит линия между борьбой с дезинформацией и цензурой. Это ключевой вопрос для всех крупнейших технологических компаний.

Читайте такжеИскусственный интеллект превзошел человека в диагностике рака

Основатель и исполнительный директор Facebook Марк Цукерберг недавно заявил, что он не хотел бы цензурировать даже отрицание Холокоста, потому что его компания не ответственна за определение правды. Однако, социальная сеть, так же как и другие, все же удаляет контент и ограничивает доступ к нему каждый день. И их решения порой кажутся угрожающими. Решение Тима Кука из Apple прикрыть Infowars, очевидно, подтолкнуло другие фирмы сделать то же самое. Джонс и его медиа-империя распространяли различные теории заговора о том, что бойня в начальной школе Сэнди Хук в 2012 году на самом деле выдумка, а лидеры Демократической партии якобы руководят «мировой сетью педофилов». Однако, решение техфирм остановить распространение такой информации вызвало возмущение и разговоры о цензуре.

По словам исполнительного директора компании New Knowledge Джона Моргана, решением проблемы может быть создание независимой организации, которая будет заниматься мониторингом информации и отсеиванием пропаганды и фальшивок. Нечто подобное уже существует для борьбы против деятельности террористов в интернете. Организация называется «Глобальный интернет-форум по борьбе с терроризмом». Однако, министр внутренних дел США Кристиэн Нельсен и американские технологические компании почему-то не хотят расширять ее задачи, включив в них борьбу с дезинформацией. Однако, европейские члены организации заинтересованы в этом.