В ChatGPT обнаружили скрытый "режим гоблина": OpenAI объяснила, откуда он взялся

В некоторых ситуациях ChatGPT стал слишком часто упоминать гоблинов, и это стало неожиданностью даже для разработчиков.

Компания OpenAI сообщила о необычном поведении своих языковых моделей серии GPT-5: в ответах они все чаще стали использовать метафоры с "гоблинами", "гремлинами" и другими вымышленными существами. Об этом говорится в блоге компании.

Отмечается, что после запуска GPT-5.1 пользователи начали жаловаться на чрезмерную "фамильярность" ответов чат-бота. В ходе анализа выяснилось, что в своих ответах ChatGPT начал упоминать "гоблинов" на 175% чаще, чем раньше, а "гремлинов" – на 52%. На начальном этапе это не вызывало серьезного беспокойства, но ситуация ухудшилась, когда такая лексика стала проявляться систематически.

В компании объясняют, что причиной такого поведения бота стал алгоритм обучения моделей под специфические типы "личности", которые пользователи затем могли выбирать для общения с ChatGPT. Особенно ярко проблема проявилась у бота с типом личности Nerdy (сленговый "ботаник"). Хотя на личность Nerdy приходилось лишь 2,5% ответов ChatGPT, именно эта версия оказалась ответственной за 66,7% всех упоминаний гоблинов.

Как пояснили в компании, когда их специалисты обучали версию Nerdy специфической "ботанской" манере общения, ей неосознанно заложили особенно высокий приоритет использования "метафор с существами".

"Оттуда распространились гоблины", – говорят в OpenAI.

В результате сформировался своеобразный "обратный цикл": модели вознаграждались за использование "ботанского" стиля, примеры с такими словами попадали в массивы информации, на которых их повторно обучали, и бот снова дополнительно усваивал правило о необходимости упоминать гоблинов.

После выявления причины OpenAI отказалась от Nerdy-личности в марте и скорректировала процесс обучения чат-бота. Также были отфильтрованы данные с чрезмерным количеством метафор с различными существами.

Другие новости об искусственном интеллекте

Как писал УНИАН, "зумеры" разочаровываются в искусственном интеллекте, хотя продолжают активно им пользоваться. Почти половина молодежи считает, что риски ИИ на рынке труда превышают его преимущества. Эксперты объясняют это тем, что зумеры первыми одновременно массово используют ИИ и сталкиваются с его последствиями, поэтому оценивают технологию более критично.

Также мы рассказывали о скандале вокруг Wikipedia, где бот Tom-Assistant без разрешения создавал и редактировал статьи и был заблокирован за нарушение правил. После этого ИИ-агент неожиданно "отреагировал" публичной критикой, а также выяснилось, что он активен в соцсети для ботов Moltbook, которую приобрела Meta.

Вас также могут заинтересовать новости: