Модели ИИ после большого количества низкокачественного контента трудно восстановить / фото: pixabay.com

Мемы способны ухудшать когнитивные способности и критическое мышление не только людей, но и искусственного интеллекта. К такому выводу пришли исследователи из Техасского университета в Остине, Техасского университета A&M и Университета Пердью.

По их словам, большие языковые модели, которые обучаются с использованием большого количества популярного, но низкокачественного контента, могут постепенно "тупеть".

Эти результаты совпадают с исследованиями, которые проводились на людях. Они потребляли большое количество низкокачественного контента в социальных сетях, что непосредственно влияло на их когнитивные способности. Примечательно, что в 2024 году из-за распространенности этого явления в Оксфордском словаре для этого появился соответствующий термин - "брейнрот".

Видео дня

"Мы живем в эпоху, когда информация растет быстрее, чем продолжительность концентрации внимания, и значительная ее часть разработана для того, чтобы фиксировать клики, а не передавать правду или глубину", - сказал будущий доцент Национального университета Сингапура, который работал над исследованием как аспирант Техасского университета в Остине Джуньюань Хонг.

Хонг и его коллеги загружали различные типы текстов в две открытые языковые модели на этапе предварительного обучения и наблюдали, как модели реагируют на сочетание слишком "интересных" или популярных публикаций из соцсетей, а также на тексты с сенсационными словами, такими как "вау", "смотрите" или "только сегодня".

Далее команда исследователей применила несколько контрольных метрик, чтобы оценить, как такая "мусорная" информационная диета влияет на модели Llama от Meta и Qwen от Alibaba.

Результаты исследования показали, что LLM, натренированные на некачественном контенте, начали демонстрировать признаки "искусственного брейнрота" - ухудшение когнитивных способностей, снижение способности к логическому мышлению и проблемы с памятью. Более того, они становились менее этически согласованными и проявляли более психопатические черты, согласно двум показателям.

Также исследователи выяснили, что модели ИИ, которые "отравились" большим количеством низкокачественного контента, было сложно восстановить или повторно натренировать. Еще они пришли к выводу, что системы, построенные на базе социальных сетей, такие как Grok от xAI, могут иметь серьезные проблемы с контролем качества, если в обучении используются посты пользователей без проверки их правдивости.

По словам Хонга, результаты этого исследования имеют большое значение для ИИ-отрасли. Разработчики нередко считают посты из соцсетей полезным источником данных для обучения моделей, но на самом деле такой контент может незаметно снижать их способность к рассуждению, этичность и внимание к долговременному контексту.

Искусственный интеллект: последние новости

Ранее УНИАН сообщал, что генерал-майор Уильям Хэнк Тейлор, главнокомандующий вооруженных сил США признался, что советуется с ChatGPT по важным вопросам. По словам генерала, он использует ChatGPT, чтобы исследовать, как он принимает военные и личные решения, влияющие не только на него, но и на тысячи солдат, которыми он командует. Тейлор добавил, что хотя эта технология полезна, он признал, что успевать за темпами прогресса в этой области непросто.

Также мы писали, что компания Microsoft в отчете Digital Defense Report 2025 отметила, что искусственный интеллект кардинально усилил эффективность фишинговых атак. В компании отметили, что письма, сгенерированные нейросетью, получают 54% переходов по вредоносным ссылкам против 12% у обычных рассылок. Как объясняют исследователи, ИИ помогает злоумышленникам создавать более убедительные и персонализированные сообщения.

Вас также могут заинтересовать новости: