<ul class="dashed" data-apple-notes-indent-amount="0"><li><span style="font-family: '.PingFangUITextSC-Regular'">文章标题:</span>From Slow Bidirectional to Fast Causal Video Generators</li><li><span style="font-family: '.PingFangSC-Regular'">文章地址:</span><a href="https://arxiv.org/abs/2412.07772">https://arxiv.org/abs/2412.07772</a> </li><li>CVPR 2025</li></ul> <img src="https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_3cfe4823-9e97-47fa-9c22-f96c311ded73/public" style="background-color:initial;max-width:min(100%,1862px);max-height:min(1096px);;background-image:url(https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_3cfe4823-9e97-47fa-9c22-f96c311ded73/public);height:auto;width:100%;object-fit:cover;background-size:cover;display:block;" width="1862" height="1096"> 作者提到当前视频生成模型的双向注意力在不善于交互式应用,每一帧的生成都需要模型处理包括未来帧的整个序列。作者通过将一个预训练的双向扩散模型调整成实时生成每一帧的因果模型来解决该问题。同时为了降低每一帧生成的延迟,作者拓展分布匹配蒸馏(DMD)到视频当中,使得扩散步数从50步降低到4步。 具体来说就是利用mask将attention改成因果形式,随后通过教师模型的ODE采样轨迹进行学生模型的初始化,最后用DMD得到最终模型。 <ul class="dashed" data-apple-notes-indent-amount="0"><li>数据:来自CogVideoX</li><li>硬件:64 H100/2 days</li><li>开源:<a href="https://github.com/tianweiy/CausVid">https://github.com/tianweiy/CausVid</a> </li></ul>