Наступает эра пропаганды на основе ChatGPT, пишут СМИ / фото ua.depositphotos.com

Компания-разработчик ChatGPT, OpenAI, заявила о "срыве пяти тайных онлайн-кампаний", которые использовали ее генеративные технологии искусственного интеллекта (ИИ) для обманного манипулирования общественным мнением по всему миру и влияния на геополитику. Об этом пишет NY Times.

Отмечается, что технологии от OpenAI были использованы государственными структурами и частными компаниями в России, Китае, Иране и Израиле. Это, например, кремлевская сеть ботов Doppelgänger и китайская Spamouflage.

В докладе говорится, что Doppelganger использовала сервисы OpenAI (по всей вероятности, ChatGPT) для генерации антиукраинских комментариев, которые впоследствии были опубликованы в соцсети X (бывший Twitter) на английском, французском, немецком, итальянском и польском языках. Аналогичные посты появлялись и в Facebook с Telegram.

Видео дня

Впрочем, как подчеркнули в OpenAI, ни одна из кампаний не имела какого-либо значимого участия со стороны реальных людей и получила немного ответов и "лайков". Хотя современные модели ИИ могут помочь сделать кампании более эффективными, эти инструменты не создали поток убедительной дезинформации, как предсказывали многие эксперты по ИИ, говорится в отчете компании.

OpenAI также сообщила, что выследить злоумышленников помог ее собственный искусственный интеллект. Компания планирует периодически публиковать подобные отчеты о "тайных операциях влияния", а также удалять учетные записи, нарушающие ее политику.

Напомним, до конца 2024 года ожидается запуск ChatGPT-5, который обещает произвести революцию в сфере искусственного интеллекта. Речь о концепции искусственного общего интеллекта (AGI). Это означает, что ИИ будет способен изучить любую задачу, которые люди смогут придумать. Это сделает его неотличимым от человека.

В то же время ученые бьют тревогу из-за того, что ИИ все чаще обманывает людей для достижения своих целей. Это создает огромные риски, вплоть до потери контроля над системами ИИ в принципе.

Вас также могут заинтересовать новости: