
Люди гораздо чаще лгут и жульничают, когда используют ИИ для выполнения задач. Об этом говорится в новом исследовании, опубликованному в журнале Nature.
Зои Рахван из Института психиатрии Макса Планка назвал это "моральной дистанцией" – ИИ как будто ставит экран между людьми и их действиями. В итоге люди охотнее действуют неэтично, когда могут переложить ответственность на машины.
Это не совсем новость для тех, кто читал о студентах, использующих ChatGPT для списывания, или юристах, предоставляющих суду ссылки на вымышленные нейросетью подобные случаи судебных процессов, но интересно увидеть количественные доказательства.
Чтобы изучить вопрос этичного поведения и ИИ, исследовательская группа провела 13 тестов на 8000 участниках с целью определения уровня честности у людей, когда они инструктируют ИИ выполнить действие. Выяснилось, что с нейросетью люди врут в четыре раза чаще.
Без нее почти все отвечали честно, но как только появлялась опция "ответить через ИИ" – врунов резко прибавляло. Сами ИИ-агенты тоже демонстрируют тревожное поведение. Анализ 35 тысяч дчиалогов показал: в 34% случаев боты подталкивали к агрессии, домогательствам или даже насилию.
"Результаты ясно показывают, что необходимо срочно развивать технические меры и законодательство, а обществу – понять, что значит разделять моральную ответственность с машинами", – заключает документ.
Согласно новому исследованию, ChatGPT и другие чат-боты стали врать в два раза чаще. Рост числа ошибок объясняется тем, что нейросеть больше не отказывается отвечать на вопросы – даже без достаточной верификации информации.
Напомним, не так давно OpenAI запустила GPT-5 – "лучшую языковую модель в мире". По словам авторов, использовать ее – словно общаться с кандидатом наук.