
Китайские исследователи впервые представили убедительные доказательства того, модели искусственного интеллекта, в частности, ChatGPT, обрабатывают информацию аналогично человеческому мозгу. Об этом сообщает портал The Independent.
Новое исследование подтвердило, что мультимодальные крупные языковые модели (LLM) могут спонтанно упорядочивать объекты так же, как это делает человеческий мозг – даже несмотря на то, что они не обучены этому. Это открытие может повлиять на развитие ИИ и изменить подход к оценке его когнитивных способностей.
Ученые объединили поведенческие эксперименты и нейровизуализацию, чтобы понять, насколько концепты объектов в LLM совпадают с представлениями в человеческом мозге. Или, другими словами, выяснить, может ли ИИ рраспознавать и классифицировать вещи на основе функции, эмоции, окружающей среды и т. д.
Чтобы выяснить, так ли это, исследователи поручили ChatGPT-3.5 и Gemini Pro Vision выполнить задачу "третий лишний". В результате авторы получили 4,7 млн суждений о сходстве между 1 854 объектами из реального мира – от животных до мебели. Анализ выявил, что ИИ создал 66 концептуальных измерений для их организации, точно так же, как это сделали бы люди. Эти измерения выходят за рамки основных категорий, такие как "еда" и охватывают сложные атрибуты, включая текстуру, эмоциональную значимость и пригодность для детей.
Наибольшее сходство между ИИ и человеком наблюдалось при оценке семантических признаков, а вот визуальные аспекты у языковых моделей, такие как форма, оставались менее выраженными. В мультимодальной версии (MLLM) степень совпадения с человеческим восприятием оказалась заметно выше.
Кроме того, исследователи обнаружили корреляцию между активацией участков мозга человека, отвечающих за восприятие окружающей среды, и векторными представлениями объектов в ИИ. Особенно ярко это проявилось в парагиппокампальной области, связанной с распознаванием сцен.
Таким образом, большие языковые модели – это далеко не "попугаи", которые лишь имитируют речь. Напротив, они обладают внутренним пониманием концепций реального мира, очень похожим на человеческое. Это может стать шагом к созданию более "человечных" когнитивных систем – от интерфейсов до гуманоидных роботов.
Как УНИАН уже писал, более 52 тысяч айтишников были уволены по всему миру с начала 2025 года. Причина – потенциал искусственного интеллекта, который может эффективно выполнять рутинные задачи программирования, включая написание кода и тестирование.
Ранее ученые тайно провели эксперимент над пользователями Reddit: ИИ-модели успешно меняли взгляды комментаторов, выдавая себя за людей. Этичность эксперимента вызвала споры, хотя сами исследователи считают его допустимым.