Иногда ИИ допускает такие же ошибки, как и люди / фото - ua.depositphotos.com

Люди и модели искусственного интеллекта "размышляют" совершенно по-разному. Тем не менее новое исследование показало, что существует определенная схожесть в мышлении, пишет Live Science.

Ученые выяснили, что ИИ иногда может принимать решения так же иррационально, как и люди. В своем исследовании ученые решили проверить поведение моделей OpenAI GPT-3.5 и GPT-4 по 18 хорошо известным в психологии человека когнитивным предубеждениям.

Отмечается, что почти в половине сценариев ИИ демонстрировал многие из наиболее распространенных человеческих предубеждений при принятии решений. Они обнаружили, что нейросети не застрахованы от человеческих ошибок.

Видео дня

"Менеджеры получат наибольшую выгоду, если будут использовать эти инструменты для решения проблем, которые имеют четкое, шаблонное решение. Если же вы используете их для принятия субъективных решений или решений, основанных на предпочтениях, будьте осторожны", - сказал в своем заявлении ведущий автор исследования Ян Чен, доцент кафедры управления операциями в бизнес-школе Ivey.

Ученые задавали ИИ-моделям гипотетические вопросы, взятые из традиционной психологии, в контексте реального коммерческого применения в таких областях, как управление запасами товаров или переговоры с поставщиками. Они попытались выяснить не только то, будет ли ИИ имитировать человеческие предубеждения, но то, будет ли он делать это, когда ему будут задавать вопросы из разных сфер бизнеса.

Согласно результатам исследования, GPT-4 превзошел GPT-3.5 при ответе на задачи с четкими математическими решениями. Он показал меньше ошибок в вероятностных и логических сценариях. Тем не менее в субъективных симуляциях, таких как выбор рискованного варианта для получения прибыли, чат-бот часто отражал иррациональные предпочтения, которые обычно демонстрируют люди.

"GPT-4 демонстрирует даже более сильное предпочтение определенности, чем люди", - говорится в исследовании.

Исследователи заметили, что поведение чат-ботов оставалось в основном стабильным независимо от того, были ли вопросы сформулированы как абстрактные психологические проблемы или операционные бизнес-процессы. Ученые пришли к выводу, что продемонстрированные предубеждения не просто продукт заученных примеров, а часть того, как ИИ "рассуждает".

Во время исследования GPT-4 иногда усиливал ошибки, похожие на человеческие, подчеркнули ученые.

"В задаче на предвзятость подтверждения GPT-4 всегда давал предвзятые ответы. Он также продемонстрировал более выраженную склонность к заблуждению "горячей руки" (склонность ожидать закономерности в случайности), чем GPT 3.5", - рассказали исследоватиели.

Ученые создали компанию, в которой работают только ИИ-сотрудники - как прошел эксперимент

Ранее ученые из Университета Карнеги-Меллона создали фальшивую компанию TheAgentCompany, которая занимается разработкой программного обеспечения. Все ее сотрудники - модели ИИ, предназначенные для самостоятельного выполнения задач. Результаты этого эксперимента оказались довольно хаотичными.

В издании поделились, что лучше всего себя показала модель Claude 3.5 Sonnet от Anthropic. Тем не менее она справилась лишь с 24% порученных ей заданий. Для выполнения одной задачи модели приходилось совершать около 30 шагов.

Модель Gemini 2.0 Flash от Google в среднем совершала 40 шагов на одно выполненное задание. Только 11,4% из них были выполнены успешно.

Вас также могут заинтересовать новости: