Использование ИИ увеличивает неэтичное поведение, показало исследование / коллаж УНИАН, фото ua.depositphotos.com

Люди гораздо чаще лгут и жульничают, когда используют ИИ для выполнения задач. Об этом говорится в новом исследовании, опубликованному в журнале Nature.

Зои Рахван из Института психиатрии Макса Планка назвал это "моральной дистанцией" – ИИ как будто ставит экран между людьми и их действиями. В итоге люди охотнее действуют неэтично, когда могут переложить ответственность на машины.

Это не совсем новость для тех, кто читал о студентах, использующих ChatGPT для списывания, или юристах, предоставляющих суду ссылки на вымышленные нейросетью подобные случаи судебных процессов, но интересно увидеть количественные доказательства.

Видео дня

Чтобы изучить вопрос этичного поведения и ИИ, исследовательская группа провела 13 тестов на 8000 участниках с целью определения уровня честности у людей, когда они инструктируют ИИ выполнить действие. Выяснилось, что с нейросетью люди врут в четыре раза чаще.

Без нее почти все отвечали честно, но как только появлялась опция "ответить через ИИ" – врунов резко прибавляло. Сами ИИ-агенты тоже демонстрируют тревожное поведение. Анализ 35 тысяч дчиалогов показал: в 34% случаев боты подталкивали к агрессии, домогательствам или даже насилию.

"Результаты ясно показывают, что необходимо срочно развивать технические меры и законодательство, а обществу – понять, что значит разделять моральную ответственность с машинами", – заключает документ.

Согласно новому исследованию, ChatGPT и другие чат-боты стали врать в два раза чаще. Рост числа ошибок объясняется тем, что нейросеть больше не отказывается отвечать на вопросы – даже без достаточной верификации информации.

Напомним, не так давно OpenAI запустила GPT-5 – "лучшую языковую модель в мире". По словам авторов, использовать ее – словно общаться с кандидатом наук. 

Вас также могут заинтересовать новости: