Summary

本文提出仅在去噪过程中修改指定注意层的自注意图。

Motivation

部分training free的image edit方法通过在生成过程中操作注意层中的特征组件来修改图像中的对象或对象属性。

然而,人们对这些注意层学习到的语义含义以及注意图的哪些部分对图像编辑的成功有何影响知之甚少。

在本文中,我们进行了深入的探索分析,证明

我们的分析为理解扩散模型中的交叉和自注意机制提供了有价值的见解。此外,基于我们的发现,我们提出了一种简化但更稳定和高效的无调整过程,仅在去噪过程中修改指定注意层的自注意图。实验证明,我们的简化方法在多个数据集上始终优于常用方法的性能。

我们发现

Analysis on Cross and Self-Attention

Cross-Attention in Stable Diffusion

Untitled

实际上在代码实现的过程中