Пользователи ChatGPT обнаружили, что чат-бот стал лениться и прокрастинировать

Разработчик OpenAI уже признал наличие проблемы, но ситуация оказалась весьма интересная.

Некоторое время назад ряд пользователей обнаружили, что ChatGPT может вести себя так же, как человек. Несмотря на то, что чат-бот был создан для выполнения задач, оказалось, что он способен увиливать от них.

В некоторых случаях он отказывается отвечать, а в других разговор прерывается из-за серии вопросов. Порой ChatGPT даже говорит людям: "Вы можете сделать это сами". Как пишет Gizchina, разработчик OpenAI признал наличие проблемы, но пока ее не исправили.

Сама ситуация оказалась весьма интересная. Разработчики утверждают, что не обновлял модель ИИ с 11 ноября, а жалобы появились позже. Это означает, что такое поведение чат-бота не является следствием изменений, внесенных разработчиками, а сформировалось само по себе. Возможно, это связано с тем, что их учат на данных, которые получены от людей.

Проблема, как говорят в OpenAI, не массовая. В настоящий момент разработчики ищут возможности для того, чтобы исправить проблему, но пока, похоже, не нашли.  

Примечательно, что такое поведение наблюдается исключительно у языковой модели ChatGPT-4, которая доступна по подписке за деньги. В случае с GPT-3.5, которой можно пользоваться бесплатно, таких проблем нет.

Также УНИАН рассказывал об исследование, которое показало, что ChatGPT на базе GPT-4 со временем "тупеет". Точность ответов снизилась, также чат-бот стал допускать больше ошибок при выполнении программирования и не так отзывчиво отвечать на деликатные вопросы. Другое исследование показало, что ChatGPT-4 проще заставить говорить неправду.

В OpenAI говорят об открытии ИИ, которое может угрожать человечеству

В конце ноября исследователи OpenAI, создавшие ChatGPT, предупредили руководство об открытии "мощного искусственного интеллекта, который может угрожать человечеству".

В компании работают над проектом под кодовым именем Q*, который способен достичь потенциала человеческого мозга в широком спектре задач. Среди ученых давно ведутся дискуссии об опасности, которую представляют высокоинтеллектуальные машины: например, если они решат, что уничтожение человечества отвечает их интересам.

В марте этого года, вслед за переходом ChatGPT до языковой модели GPT-4, глава OpenAI Сэм Альтман признался, что он "немного боится" своего детища и что он несет реальную опасность, оказавшись "не в тех руках". Ожидается, что выходящая в конце 2023 года модель GPT-5 достигнет ранее невиданного уровня ИИ.

Вас также могут заинтересовать новости: