Технологии

ByteDance выпустит модель ИИ для генерации реалистичных видео с людьми

Китайская компания , владеющая соцсетью , представила собственную модель искусственного интеллекта OmniHuman-1. Как следует из заявления исследователей, работающих над проектом, новая -модель способна генерировать реалистичные видео с изображением людей из фотографии и аудио”Мы предлагаем сквозную платформу… для генерации видео с изображением людей под названием OmniHuman, которая может генерировать видео на основе одного изображения и сигналов движения (например, только аудио, только видео или комбинация из аудио и видео)”, – говорится в заявлении разработчиков ByteDance, опубликованном на платформе GitHub. Как отмечают разработчики, данная модель ИИ способна генерировать невероятно реалистичные видео с изображением людей даже на основе слабых входных данных. Кроме того, она способна поддерживать различные визуальные или аудио стили, а также генерировать видео с любым соотношением сторон и пропорциями тела. Кроме того, у модели OmniHuman улучшено качество отображения жестов, что долгое время являлось одной из главных проблем моделей ИИ подобного типа, подчеркнули разработчики.

Разработчики также привели образцы сгенерированных видео, на одном из которых “оживший” Эйнштейн на протяжении 23 секунд рассказывает о науке.

Официального релиза модели OmniHuman-1 компания ByteDance еще не проводила.Ранее газета Financial Times со ссылкой на источники сообщила, что китайская компания ByteDance, владеющая соцсетью TikTok, планирует потратить более 12 миллиардов долларов на развитие инфраструктуры, связанной с ИИ, в том числе на приобретение ИИ-чипов. В декабре 2024 года в отчете информационного центра сети интернет Китая (CNNIC) сообщалось, что число пользователей продуктов генеративного искусственного интеллекта в КНР достигло 230 миллионов человек.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»