本地无限次体验AI绘画 — stable-diffusion-webui 本地部署指南(国内镜像加速版)

SD指南2年前 (2023)发布 一起用AI
1,223 0 0

20230304更新:简化步骤,去除conda安装pytorch这一步

本文提供的方法主要用于缓解国内访问GitHub不稳定导致安装出现错误,以及通过使用国内的镜像提升安装包的安装速度,同时尽可能不影响原本的安装过程和使用体验。

注:作者目前仅在Windows平台且有NIVIDA GPU的环境下部署,理论上Linux平台同样适用。若有问题,欢迎留言。

注:由于stable-diffusion-webui官方的手动安装教程落后于版本,因此不建议遵照手动安装教程进行安装。

stable-diffusion-webui 介绍

stable-diffusion-webui 是一个基于Gradio库的Stable Diffusion的浏览器界面,可以说是AI绘画集合体,支持目前主流的开源AI绘画模型,例如 NovelAi/Stable Diffusion,有了它,我们就可以很方便地配置和生成AI绘画作品,并且进行各种精细地配置。

本地无限次体验AI绘画 — stable-diffusion-webui 本地部署指南(国内镜像加速版)

stable-diffusion-webui 界面

Python环境配置以及基础包安装

安装Anaconda,同时配置好清华镜像,以及Pypi镜像,方法略,网上资料比较多。

Anaconda安装完成后,运行如下命令创建并激活python3.10的环境

conda create -n sdwebui python=3.10
conda activate sdwebui

stable-diffusion-webui 的源文件下载和配置

找个空间比较大的硬盘,执行下面的命令,下载stable-diffusion-webui 的源文件。(以下命令已经过镜像加速,但可能会失效,如有问题,请给我留言)

git clone https://github.moeyy.xyz/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

下载完成后,用任何编辑器打开launch.py文件,进行修改,但凡出现 https://github.com 的地方,在它的前面加上https://github.moeyy.xyz/ 即可,修改完成后的结果参考如下:

gfpgan_package = os.environ.get(GFPGAN_PACKAGE, “git+https://github.moeyy.xyz/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379”)
clip_package = os.environ.get(CLIP_PACKAGE, “git+https://github.moeyy.xyz/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1”)
openclip_package = os.environ.get(OPENCLIP_PACKAGE, “git+https://github.moeyy.xyz/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b”)

xformers_windows_package = os.environ.get(XFORMERS_WINDOWS_PACKAGE, https://github.moeyy.xyz/https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl)

stable_diffusion_repo = os.environ.get(STABLE_DIFFUSION_REPO, “https://github.moeyy.xyz/https://github.com/Stability-AI/stablediffusion.git”)
taming_transformers_repo = os.environ.get(TAMING_TRANSFORMERS_REPO, “https://github.moeyy.xyz/https://github.com/CompVis/taming-transformers.git”)
k_diffusion_repo = os.environ.get(K_DIFFUSION_REPO, https://github.moeyy.xyz/https://github.com/crowsonkb/k-diffusion.git)
codeformer_repo = os.environ.get(CODEFORMER_REPO, https://github.moeyy.xyz/https://github.com/sczhou/CodeFormer.git)
blip_repo = os.environ.get(BLIP_REPO, https://github.moeyy.xyz/https://github.com/salesforce/BLIP.git)

Stable Diffusion 2.0/2.1模型的下载和配置

根据官方的信息,2.1版本模型结构和2.0版本一致,因此,两个版本的配置文件是通用的。

2.0版本:

768-v-ema.ckpt (model,config)

512-base-ema.ckpt (model,config).

2.1版本:

v2-1_768-ema-pruned.ckpt(model,config

v2-1_512-ema-pruned.ckpt(model,config

将下载的模型文件和配置文件放到 models/Stable-Diffusion 文件夹中(没有则自行创建)

修改模型文件和配置文件名,确保对应文件名相同,例:如果模型名为768-v-ema.ckpt,则配置文件名应为768-v-ema.yaml

启动安装

上述配置完成后,执行如下命令开始进行安装:

python .\launch.py –xformers

在经历了一段时间的等待,中途可能还会出现网络错误,没关系,多试几次,最终会出现如下的一个地址:

Running on local URL: http://127.0.0.1:7860

To create a public link, set `share=True` in `launch()`.

这就说明本地已经部署成功,打开浏览器,输入上述地址,即可在本地进行AI绘画创作啦。

根据本地电脑显卡的性能强弱,出图速度会有所不同,但是,毕竟是自己电脑,所以慢点也是可以接受的。

© 版权声明

相关文章