Представлена нейросеть Stable Video Diffusion для генерации видео с использованием генеративных моделей

Компания Stable AI представила свою первую генеративную модель для создания коротких видео.

В настоящее время Stable Video Diffusion находится в стадии бета-тестирования. Чтобы получить доступ к сервису, необходимо зарегистрироваться в списке ожидания. Кроме того, исходный код модели опубликован на GitHub.

Stable Video Diffusion гибко адаптируется для решения разнообразных задач. Например, с ее помощью можно создать короткое видео, используя всего одно изображение. Однако Stable Video Diffusion является лишь началом, поскольку компания планирует создать полноценную экосистему генеративных моделей на основе этой модели.

В будущем Stable Video Diffusion будет доступна для генерации видео непосредственно в браузере. В настоящее время модель представлена в двух версиях: первая версия может сгенерировать 14 кадров, а вторая — 25. Из этих кадров можно создать видео с частотой от 3 до 25 кадров в секунду.

Stable Video Diffusion находится в стадии разработки и пока не предназначена для полноценного коммерческого использования. В будущем планируется расширение возможностей модели.

Фото аватара
Алия

Специализируюсь на новостях о нейросетях. Разбираюсь в темах искусственного интеллекта и машинного обучения. Активно отслеживаю последние тенденции и достижения в области нейросетей и регулярно делится своими новостными обзорами.

Статей: 11

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *