【Stable Diffusion初学者指南】负面提示词对于 v2 模型很重要
Stable Diffusion v2.1 的负面提示词
与 Max Woolf 的发现一致,我自己的经验是负面提示词对于 v2 模型非常重要。下面我使用了正面提示词来生成真实的人类,但使用Stable Diffusion 2.1 模型。
a young female, highlights in hair, sitting outside restaurant, brown eyes, wearing a dress, side light

仅添加两到三个负面提示词即可逐渐提高图像的美感。我想说这已经非常接近 v1 模型的质量了。
Stable Diffusion v1.5 的负面提示词
让我们在 v1.5 模型上重复这个练习。

v1.5 中的图像效果非常好,没有任何负面提示词。添加负面提示词“ugly, deformed and disfigured”可能会有所改善,但不如 v2.1 中那么清晰。就好像 v1.5 模型不理解这些词一样。
为什么负面提示词在 v2 中变得更加重要?
这是一个我只能猜测的领域……但为什么不试试呢? v2 中的两个变化是:
使用更大的 OpenCLIP 语言模型。
过滤掉训练数据中的 NSFW 内容。
第一个猜测是从 Open AI 的 CLIP 模型切换到 OpenCLIP。这会影响模型的嵌入。Open AI 使用专有数据训练 CLIP 模型。如果数据经过精心策划,每个人看起来都远高于平均水平,那么提示“woman”将与提示“beautiful woman”相同,这会让提示词变得更容易。
我的第二个猜测是,那些被视为 NSFW 的东西也可能具有高度的审美性。这可能是过滤器故障,也可能是 NSFW 图像的本质。排除 NSFW 图像也会无意中使数据偏向于不好和丑陋的方面。
查看更多从零了解Stable Diffusion内容点击:https://www.haoshuo.com/article/64b899356b6e1b749015ef90