一、Lora简介二、Lora一键包安装教程三、Lora使用教程四、常见错误除一、Lora简介LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。Stable Diffusion 的全模型微调过去既缓慢又困难,这也是 Dreambooth 或 Textual Inversion 等轻量级方法变得如此流行的部分原因。使用 LoRA,在自定义数据集上微调模型要容易得多。详细的原理分析见右侧链接:https://www.cnblogs.com/huggingface/p/17108402.html简单来说,lora模型为我们提供了更便捷更自由的微调模型,能够使我们在底膜的基础上,进一步指定整体风格、指定人脸等等,而且lora模型非常的小,大部分都只有几十MB,非常的方便!二、Lora一键包安装教程秋叶大佬已经发布了一个本地Lora一键包,比较的方便,可以参考下方视频安装使用,本文是文字版教程。注意本文默认是使用的N卡,A卡的道友暂时好像不能使用,会非常的慢秋叶lora视频教程链接:https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.999.0.0一键包下载链接:https://pan.quark.cn/s/d81b8754a484百度网盘链接:[url=链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l]链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l[/url]下载完一键包之后,先安装包里的两个软件其中python版本必须是python3.1,即使本地有python,还是建议再安装一个3.1版本。安装python的时候记得勾选将python加入环境变量,如下图红框安装完两个软件后,将鼠标移动到电脑左下角开始图标,选择“windows powershell”输入命令:Set-ExecutionPolicy -ExecutionPolicy RemoteSigned遇到询问输入 y同时可以在这里验证python是否安装成功,输入python将显示出python版本为3.1.现在进入lora-scripts文件夹,先双击运行“强制更新.bat”文件如果报错提示没有git或者不识别git命令,说明你的电脑没有git,需要下载安装一个,git下载链接:https://git-scm.com/download/win安装完git再重新运行“强制更新.bat”文件更新完毕后,右键:“install-cn.ps1”文件,选择“使用powershell运行”。注意,这里有一个非常常见的错误就是提示“其他依赖安装失败!”如下图遇到这个错误,重新运行“强制更新.bat”文件然后再运行“install-cn.ps1”文件。“install-cn.ps1”文件正常运行最后会提示“安装完毕”,如下图然后现在就进入了素材准备的阶段,首先自己准备10-100张图片,40张左右效果就差不多。将所以的素材图片放到同一个文件夹,然后进入SDwebUI界面,选择“训练”标签,点击图像预处理在源文件输入素材文件夹位置,并填上输出文件夹位置,勾选下方第三个自动焦点裁切和最后一个deepbooru打tag的选项点击预处理,会在设置的输出文件夹中生成裁剪后的图片以及图片相应tag的txt文件这里如果显卡大小小于8G的话,建议裁剪成512*512大小的图片,512*640最少需要8G显存得到素材文件后,,在lora-scripts文件夹下新建一个train文件夹,然后再下方再创建一个文件夹,命名随意,但是需要记住。比如我创建了就是sucai文件夹。在这个文件夹下再创建一个文件夹,这个文件夹有严格的命名格式。要求为:数字_名称,如6_sucai。数字代表的是这个文件夹下的素材使用几次,显存大的道友可以设置多个,一个的话也可以。如果素材文件比较少的情况下,可以设置6,如果100张图以上可以设置为2或者3,甚至1也行,不然可能会炸全选复制裁剪后的图片以及所以的txt文件到上面刚创建的文件夹下。比如我这就是..\train\sucai\6_sucai\现在素材准备好了,我们修改一下“train.ps1”文件,右键使用文本编辑器打开我们需要修改的参数如下图所示:其中$pretrained_model,不是指的SDwebUI左上角的模型路径,而是这次训练lora模型主要参考的模型。存放位置一般为..\lora-scripts\sd-models\这里我们需要去准备一个模型放在这个路径中,推荐直接复制SD中的主模型过来改个名字。注意,经过群友大量测试,推荐使用SD1.5模型作为lora丹底。下载链接:https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt将新下载的SD1.5,如果之前下过就到从..\stable-diffusion-webui\models\Stable-diffusion中找复制到..\lora-scripts\sd-models\路径中最好重命名一下,比如我就是重命名为model.ckpt然后就填入配置文件$pretrained_model = “./sd-models/model.ckpt”注意:有的道友选的丹底是SafeTensor格式的,那就改成$pretrained_model = “./sd-models/model.safetensor“$train_data_dir指的就是我们刚才创建的存放素材的位置,我这里就填入$train_data_dir = “./train/sucai/”不需要填入带数字的文件夹。下方的训练相关参数,$resolution指的是图片分辨率。显存小于8个G的道友就老老实实训练512,512,不然显存直接爆炸$max_train_epoches指的是训练的epoch数,建议数值10-20,但一般15就差不多了。数字越大训练时间越久。其他几个参数小白的话可以不用动,默认就可以了。学习率这里也不用动等能够熟练操作之后,可以自己调整参数以便得到更好的效果。再往下,输出设置这里可以通过修改$output_name后方的值修改输出的lora模型文件名,建议输入英文名,不要用中文,比如我设置为gaoye。lora文件类型建议设置$save_model_as为safetensors改完参数后,一定记得保存文件。然后关掉文件,“train.ps1”文件,选择“使用powershell运行”。如果显存没爆炸,且上述参数都设置的情况下,正常就开始进入训练界面了。出现epoch轮数的时候,就证明你已经正常进入训练过程了!根据设置的参数已经你显卡的性能,训练的时间不等。等待训练完毕,打开..\lora-scripts\output\文件夹,复制生成的gaoye.safetensors复制到sd中的..\stable-diffusion-webui\models\Lora\路径中其他几个带数字的文件为中间文件,可以丢弃。至此,我们自己的lora模型已经训练完成,可以进行使用了!!三、Lora使用教程这部分不再赘述,可以参考入门教程的第七部分入门教程:https://dfldata.xyz/forum.php?mod=viewthread&tid=12756&page=1#pid390482四、常见错误排除1.运行“install-cn.ps1”文件,提示“其他依赖安装失败!”如下图答:遇到这个错误,重新运行“强制更新.bat”文件,然后再运行“install-cn.ps1”文件。2.运行“强制更新.bat”文件,报错提示没有git或者不识别git命令。答:说明你的电脑没有git,需要下载安装一个,git下载链接:https://git-scm.com/download/win安装完git再重新运行“强制更新.bat”文件3.运行“train.ps1”文件提示“CUDA out of memery”错误。答:显存不够了,调小参数设置的分辨率,支持非正方形,但必须是 64 倍数。同时可以加大虚拟内存,具体方法百度。实在机器性能有限,可以使用在线的网站训练lora模型。参考链接:https://www.bilibili.com/read/cv214501984.运行“install-cn.ps1”文件创建虚拟环境失败答:检查python版本,以及电脑装过anaconda,需要先关掉conda自动激活base环境,方法自行百度。不然运行脚本时环境会冲突。5.运行的“train.ps1”文件的时候,提示Error no kernel image is available for execution on the device。答:删掉“train.ps1”文件中,下方红框中的命令,保存后重新运行
举报/反馈
© 版权声明
文章版权归作者所有,未经允许请勿转载。