ИИ-генератор видео Runway Gen-2 стал доступен всем пользователям / Скриншот

Компания Runway, которая разработала популярную нейросеть для генерации изображений по текстовому описанию Stable Diffusion, открыла доступ к своей новой нейросети Gen-2, умеющей генерировать короткие видео по текстовому описанию.

Опробовать Gen-2 можно через сайт Runway или приложение для iOS. В сумме на один аккаунт пока дают поиграться только на 105 секунд. 

Работает нейросеть просто: нужно ввести текстом свой запрос на английском языке и дождаться генерации. Пока качество видеороликов и детализация объектов остается невысоким, но, как можно видеть на примере ИИ-генераторов изображений – это дело времени.

Демонстрация нейросети Gen-2:

В Runway убеждены, что их новая нейросеть произведет в генерации роликов такой же фурор, как Stable Diffusion – в генерации картинок. По словам разработчиков, "2023 год станет годом видео", а в скором будущем с помощью ИИ будет генерировать значительная часть видеоконтента в фильмах, телесериалах и играх.

Отметим, что Gen-2 – не первая нейросеть, генерирующая видео. В прошлом году Meta представила свою нейросеть Make-A-Video. Она тоже создает видеоролики по текстовому описанию, серии фотографий или на основе другого видео. Однако нейросеть для массового пользования пока недоступна.

Напомним, ранее разработчики Adobe внедрили в Photoshop нейросеть – теперь для работы с фотошопом не требуются навыки дизайнера. С ее помощью можно в пару кликов поменять фон, добавить на фото любые объекты, а также "дорисовать" границы кадра.

Вас также могут заинтересовать новости: