<ul class="dashed" data-apple-notes-indent-amount="0"><li><span style="font-family: '.PingFangSC-Regular'">文章标题:</span>SVDiff: Compact Parameter Space for Diffusion Fine-Tuning</li><li><span style="font-family: '.PingFangSC-Regular'">文章地址:</span><a href="https://arxiv.org/abs/2303.11305">https://arxiv.org/abs/2303.11305</a> </li><li>ICCV 2023</li></ul> <img src="https://res.cloudinary.com/montaigne-io/image/upload/v1724930471/AB8BE2F4-2512-45C2-ACA3-10D07ACCA4E6.png" style="background-color:initial;max-width:min(100%,1242px);max-height:min(782px);;background-image:url(https://res.cloudinary.com/montaigne-io/image/upload/v1724930471/AB8BE2F4-2512-45C2-ACA3-10D07ACCA4E6.png);height:auto;width:100%;object-fit:cover;background-size:cover;display:block;" width="1242" height="782"> 扩散模型在文生图任务上取得了高速发展,然而现有的定制化输出的方法存在一些限制,如捕捉多对象,过拟合风险以及需要微调的参数量。 文章提出了新的方法来解决这些定制化文生图模型中存在的问题,包含对权重矩阵的奇异值进行微调从而得到一个高效的参数空间减少了过拟合的风险。 此外文章还提出了一个Cut-Mix-Unmix数据增强的方法来增强多对象图像生成的质量和一个简单的基于文本的图像编辑架构。 文章提出的SVDiff方法相对于现有方法具有非常小的模型大小(比常规的DreamBooth小2200倍)。 <img src="https://res.cloudinary.com/montaigne-io/image/upload/v1724930471/8F5ABE37-38E1-409B-A87C-6EA909C33C41.png" style="background-color:initial;max-width:min(100%,1200px);max-height:min(1408px);;background-image:url(https://res.cloudinary.com/montaigne-io/image/upload/v1724930471/8F5ABE37-38E1-409B-A87C-6EA909C33C41.png);height:auto;width:100%;object-fit:cover;background-size:cover;display:block;" width="1200" height="1408">