ChatGPT на базе GPT-4 стал лениться и хуже отвечать на вопросы / фото ua.depositphotos.com

Некоторое время назад ряд пользователей обнаружили, что ChatGPT может вести себя так же, как человек. Несмотря на то, что чат-бот был создан для выполнения задач, оказалось, что он способен увиливать от них.

В некоторых случаях он отказывается отвечать, а в других разговор прерывается из-за серии вопросов. Порой ChatGPT даже говорит людям: "Вы можете сделать это сами". Как пишет Gizchina, разработчик OpenAI признал наличие проблемы, но пока ее не исправили.

Сама ситуация оказалась весьма интересная. Разработчики утверждают, что не обновлял модель ИИ с 11 ноября, а жалобы появились позже. Это означает, что такое поведение чат-бота не является следствием изменений, внесенных разработчиками, а сформировалось само по себе. Возможно, это связано с тем, что их учат на данных, которые получены от людей.

Видео дня

Проблема, как говорят в OpenAI, не массовая. В настоящий момент разработчики ищут возможности для того, чтобы исправить проблему, но пока, похоже, не нашли.  

Примечательно, что такое поведение наблюдается исключительно у языковой модели ChatGPT-4, которая доступна по подписке за деньги. В случае с GPT-3.5, которой можно пользоваться бесплатно, таких проблем нет.

Также УНИАН рассказывал об исследование, которое показало, что ChatGPT на базе GPT-4 со временем "тупеет". Точность ответов снизилась, также чат-бот стал допускать больше ошибок при выполнении программирования и не так отзывчиво отвечать на деликатные вопросы. Другое исследование показало, что ChatGPT-4 проще заставить говорить неправду.

В OpenAI говорят об открытии ИИ, которое может угрожать человечеству

В конце ноября исследователи OpenAI, создавшие ChatGPT, предупредили руководство об открытии "мощного искусственного интеллекта, который может угрожать человечеству".

В компании работают над проектом под кодовым именем Q*, который способен достичь потенциала человеческого мозга в широком спектре задач. Среди ученых давно ведутся дискуссии об опасности, которую представляют высокоинтеллектуальные машины: например, если они решат, что уничтожение человечества отвечает их интересам.

В марте этого года, вслед за переходом ChatGPT до языковой модели GPT-4, глава OpenAI Сэм Альтман признался, что он "немного боится" своего детища и что он несет реальную опасность, оказавшись "не в тех руках". Ожидается, что выходящая в конце 2023 года модель GPT-5 достигнет ранее невиданного уровня ИИ.

Вас также могут заинтересовать новости: