【Stable Diffusion进阶技巧】比LoRA更强的LoCon来了!
LoRA和LoCon的关系
LoCon是由LoRA演化而来,全称是LoRA for Convolution Network。 LoCon相对于LoRA的改进,简单来说,LoRA是一种用于大语言模型微调的方法,通过降低参数矩阵的秩来减少参数数量并保持相当的效果。而LoCon则是LoRA在卷积神经网络中的应用,通过对卷积核进行降维来减少参数数量。 从代码层面看: # 对于卷积
self.lora_down = nn.Conv2d(in_dim, lora_dim, k_size, stride, padding, bias=False)self.lora_up = nn.Conv2d(lora_dim, out_dim, (1, 1), bias=False)# 对于全连接层self.lora_down = nn.Linear(in_dim, lora_dim, bias=False)self.lora_up = nn.Linear(lora_dim, out_dim, bias=False)
LoCon部署方法
部署和使用方式与LoRA一致。 具体步骤如下: 1.确保已安装 LoCon 扩展下载 github.com/KohakuBlueleaf/a1111-sd-webui-locon 2.将文件放在文件夹中 models/lora单击 Generate 按钮下方的按钮(紫色图标)show extra networks 3.转到选项卡并根据需要刷新 Lora 单击您要使用的那个,它将添加到提示中 3.确保调整权重,默认情况是1,有点高,设置到0.5比较合适
LoCon的优点 1. LoCon出图效果相对于LoRA更好点 2.LoCon学习极小量样本就可以有相对不错的效果,减少了训练和运行成本 LoCon的缺点
1.出图效果比较慢 2.目前看LoCon增加了参数量,最多是一种类似于超参数的调整,并未完全解决卷积神经网络的LoRA问题 目前关于LoCon资料较少,之后有新认知再迭代,欢迎大家一起讨论:)