<ul class="dashed" data-apple-notes-indent-amount="0"><li><span style="font-family: '.PingFangUITextSC-Regular'">文章标题:</span>LONGLIVE: REAL-TIME INTERACTIVE LONG VIDEO GENERATION</li><li><span style="font-family: '.PingFangSC-Regular'">文章地址:</span><a href="https://arxiv.org/abs/2509.22622">https://arxiv.org/abs/2509.22622</a> </li><li>ICLR 2026</li></ul> <img src="https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_930160de-2041-402a-9bbe-1ec2f6eb9d86/public" style="background-color:initial;max-width:min(100%,1858px);max-height:min(1174px);;background-image:url(https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_930160de-2041-402a-9bbe-1ec2f6eb9d86/public);height:auto;width:100%;object-fit:cover;background-size:cover;display:block;" width="1858" height="1174"> 作者提出了LongLive,一个帧级别自回归的实时交互式的长视频生成框架。 长视频生成的挑战主要在效率和质量上,扩散模型能生成高质量的视频但双向注意力导致推理延迟过高,因果注意力自回归模型支持KV cache来加速推理,但生成的长视频质量会下降,因为长视频训练中的内存问题。另外,交互式的多prompt的长视频生成在动态内容生成中非常重要。 为了解决这些问题,LongLive采用了因果注意力的自回归架构,提出了KV-recache机制用于在prompt转换中刷新缓存,提升一致性和流畅度;提出了流式长训练,来支持长视频的训练,对齐训练和推理(train-long-test-long);提出了frame sink,提升长范围一致性的同时保持快速推理。 具体来说,第一个点就是上图,增加一个attention模块用于prompt转换时的缓存刷新,与模型共同训练;第二点如下图: <img src="https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_1175f1b2-92b7-48bc-928a-9976f01454ea/public" style="background-color:initial;max-width:min(100%,1844px);max-height:min(1148px);;background-image:url(https://imagedelivery.net/phxEHgsq3j8gSnfNAJVJSQ/node3_1175f1b2-92b7-48bc-928a-9976f01454ea/public);height:auto;width:100%;object-fit:cover;background-size:cover;display:block;" width="1844" height="1148"> 提出该点的原因是教师模型本身就没办法生成高质量的长视频来进行监督,因此该方法将长视频切分为多个clip,然后多个clip用教师模型来监督,生成每个clip时,前面clip的历史同时保留;第三个点如图一,将第一帧作为frame sink,进行滑动窗口的KV-cache时,不丢弃第一帧。 <ul class="dashed" data-apple-notes-indent-amount="0"><li>数据:VidProM,转移prompt来自Qwen2生成(将原prompt作为条件)</li><li>硬件:12h 64 H100</li><li>开源:https://github.com/NVlabs/LongLive</li></ul>