Runway запускает новую модель нейросети для создания видео по текстовому описанию

Это аналог Midjourney, но для коротких роликов.

Искусственный интеллект, преобразующий текст в изображение, сейчас стал настоящим мейнстримом, но аналогичные нейросети для видео только набирают обороты. В авангарде этого направления стоит стартап Runway, который выпустил уже вторую модель ИИ, генерирующего короткие ролики по нескольким словам.

⚡ Самое интересное и важное за день — в телеграм-канале «Лайфхакер. Новости».

Runway предлагает веб-редактор видео, который специализируется на инструментах машинного обучения, таких как удаление фона. Эта компания помогла разработать модель преобразования текста в изображение Stable Diffusion, а в феврале анонсировала свою первую модель редактирования видео на основе искусственного интеллекта Gen-1.

Gen-1 была сосредоточена на преобразовании существующих видеоматериалов, позволяя пользователям применять наложение определенного стиля с картинки на ролик. Модель Gen-2 же больше ориентирована на создание видео с нуля.

Видео, созданное искусственным интеллектом с использованием подсказки «Закат сквозь окно в нью-йоркской квартире» / Runway

Демонстрационные ролики, которыми поделились в Runway, короткие, нестабильные и уж точно не фотореалистичные, но даже такие кадры неплохо демонстрирует понимание ИИ трёхмерного пространства, пропорций и логики перемещения объектов.

Пока Gen-2 нет в свободном доступе, но представитель Runway заверил, что компания «предоставит широкий доступ в ближайшие недели».



Перспективы внедрения такого ИИ уже пугают экспертов. Ведь нейросети для работы с видео обещают не только новые творческие возможности, но и новые угрозы для дезинформации.

Это упрощённая версия страницы.

Читать полную версию
Обложка: Runway
Если нашли ошибку, выделите текст и нажмите Ctrl + Enter
Станьте первым, кто оставит комментарий