Выходящая в конце года версия GPT-5 достигнет ранее невиданного уровня ИИ/ ua.depositphotos.com

Совсем недавно компания-разработчик OpenAI выпустила четвертое поколение языковой модели GPT, лежащей в основе чат-бота ChatGPT, но уже началось обсуждение версии 5. По всей видимости, нас ждет настоящая революция. 

Об этом в своем твиттере пишет разработчик Сици Чен. Речь идет о концепции общего искусственного интеллекта (AGI). Это означает, что ИИ будет способен понять и выполнить любую задачу, которую люди смогут придумать. Это делает его неотличимым от человека по своим возможностям.

Как результат, AGI сможет повысить производительность труда в разных сферах деятельности, избавив людей от монотонной и утомительной работы. В то же время наделение ИИ такой мощью может иметь непредвиденные последствия, причем некоторые из них сейчас даже невозможно представить, отмечают эксперты.

Видео дня

Накануне исследовательская команда Microsoft оценила мощность нынешней GPT-4 близкой к человеческому уровню. Обновленную языковую модель назвали первым шагом к "общему искусственному интеллекту" (AGI), то есть способному на выполнение широкого круга задач.

К слову, OpenAI уже анонсировала GPT-4.5, пообещав выпустить промежуточную версию этой осенью. Разработчики обещают устранить некоторые ограничения GPT-4 путем улучшения производительности и расширению потенциальных сфер применения. Кроме того, ожидается, что GPT-4.5 будет способен предоставлять более длинные, точные и связанные между собой текстовые ответы.

Маск и другие призвали прекратить обучение нейросетей

На фоне ошеломительной популярности умного чат-бота ChatGPT и появления множества конкурирующих продуктов, ведущая группа экспертов в сфере искусственного интеллекта (ИИ) и представителей ИТ-отрасли призвала как минимум на полгода приостановить обучение нейросетей, превосходящих GPT-4.

Открытое письмо о рисках таких технологий для общества и цивилизации подписали Илон Маск, сооснователь Apple Стив Возняк и еще более 1100 человек. В заявлении упоминаются, что подобные ИИ-системы должны разрабатываться только после того, как появится уверенность в том, что они будут иметь положительные последствия, а связанные с ними риски будут управляемы.

Пока предлагается временная мера: с остановкой работ до того момента, пока не будут разработаны стандарты безопасности.

Вас также могут заинтересовать новости: