
Компания-разработчик ChatGPT, OpenAI, заявила о "срыве пяти тайных онлайн-кампаний", которые использовали ее генеративные технологии искусственного интеллекта (ИИ) для обманного манипулирования общественным мнением по всему миру и влияния на геополитику. Об этом пишет NY Times.
Отмечается, что технологии от OpenAI были использованы государственными структурами и частными компаниями в России, Китае, Иране и Израиле. Это, например, кремлевская сеть ботов Doppelgänger и китайская Spamouflage.
В докладе говорится, что Doppelganger использовала сервисы OpenAI (по всей вероятности, ChatGPT) для генерации антиукраинских комментариев, которые впоследствии были опубликованы в соцсети X (бывший Twitter) на английском, французском, немецком, итальянском и польском языках. Аналогичные посты появлялись и в Facebook с Telegram.
Впрочем, как подчеркнули в OpenAI, ни одна из кампаний не имела какого-либо значимого участия со стороны реальных людей и получила немного ответов и "лайков". Хотя современные модели ИИ могут помочь сделать кампании более эффективными, эти инструменты не создали поток убедительной дезинформации, как предсказывали многие эксперты по ИИ, говорится в отчете компании.
OpenAI также сообщила, что выследить злоумышленников помог ее собственный искусственный интеллект. Компания планирует периодически публиковать подобные отчеты о "тайных операциях влияния", а также удалять учетные записи, нарушающие ее политику.
Напомним, до конца 2024 года ожидается запуск ChatGPT-5, который обещает произвести революцию в сфере искусственного интеллекта. Речь о концепции искусственного общего интеллекта (AGI). Это означает, что ИИ будет способен изучить любую задачу, которые люди смогут придумать. Это сделает его неотличимым от человека.
В то же время ученые бьют тревогу из-за того, что ИИ все чаще обманывает людей для достижения своих целей. Это создает огромные риски, вплоть до потери контроля над системами ИИ в принципе.