Midjourney представила свою первую нейросетевую модель для создания видео / Скриншот

Стартап Midjourney, который создал одну из самых популярных моделей ИИ, генерирующих картинки по текстовому описанию, объявил о запуске своей первой видеомодели V1. Новый сервис позволяет превращать статические изображения и текстовые промты в короткие анимационные видеоролики.

В модели предусмотрены два режима: Low Motion для плавных сцен со статичной камерой и High Motion для динамичных роликов с активным перемещением камеры и объектов. Длина сгенерированного видео – 5 секунд, однако его можно продлить до ~20 секунд с помощью четырех последовательных "удлинений".

Пользователи могут управлять анимацией с помощью текстовых подсказок, но полный контроль над углами камеры пока недоступен. Видео генерируются в разрешении 480p и частотой 24 кадра в секунду.

Видео дня

По мнению экспертов, первые примеры от компании выглядят ярко и реалистично: персонажи лишены типичных для нейросетей ошибок вроде лишних пальцев или искаженных глаз, а человеческая анатомия передана правдоподобно, как и остальные элементы видео.

Пока функция создания видео будет платной и работать в веб-версии. На момент запуска самым дешевым способом оценить V1 является базовая подписка Midjourney за $10/месяц.

Midjourney Video V1 – не единственная нейросеть, создающая реалистичные видео по запросу. В начале месяца Microsoft предоставила бесплатный доступ к видеогенератору Sora от OpenAI. Ранее доступ к ИИ-модели имели только платные подписчики ChatGPT.

А еще раньше Google выпустила обновление для чат-бота Gemini, которое добавляет поддержку Veo 2. Моментами от живых съемок реально сложно отличить.

Вас также могут заинтересовать новости: