
魔搭ModelScope社区
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!
JoyGen是一个音频驱动的3D深度感知说话人脸视频生成框架。它通过音频驱动生成嘴唇运动和视觉外观合成,旨在实现精确的嘴唇-音频同步和高视觉质量。
JoyGen是由京东科技与香港大学合作开发的音频驱动 3D 说话人脸视频生成框架,采用一种新颖的两阶段框架。该技术通过音频输入驱动 3D 深度感知模型,实现精确的唇部与音频同步,以逼真模拟说话者的唇部动作和面部表情,生成高度真实的视频内容。JoyGen 主要应用于视频编辑和虚拟交互领域。
技术特点:
如何使用JoyGen:
应用场景:
通过这些功能,JoyGen 在说话人脸视频生成和编辑方面展现了强大的能力。
GitHub:https://github.com/JOY-MM/JoyGen
JoyGen – 音频驱动的3D深度感知说话人脸视频生成框架