由于之前写过了在腾讯云部署太乙模型的文章,在这里我仅记录关键步骤和新问题,部署方法都是一致的,如果遇到了其他错误,请参考以下这篇文章
这次选用的云平台是AutoDL,云平台的选择依个人需求而定即可
AutoDL的系统盘只有25G,数据量过大时会出现不够用的情况,建议将项目存放在数据盘(/root/autodl-tmp),我们可以对数据盘进行扩容以满足个人需求
操作系统使用的是ubuntu22.04,镜像环境为conda3+python3.10+cuda11.8
通过github拉取sd-webui项目
1 | git clone https://github.com/IDEA-CCNL/stable-diffusion-webui.git |
通过阿里网盘将太乙模型上传到repositories目录下面
1 | cd stable-diffusion-webui/repositories/ |
修改webui.sh脚本,以避免root用户无法启动webui的权限问题
1 | vim webui.sh |
进入文件后将64行的0修改为1
修改launch.py脚本为下图所示
1 | vim launch.py |
可避免下图中pytorch下载不下来的问题,或者直接到官网下载项目要求的指定版本
在以下地址之前加 https://ghproxy.com/提升下载速度
启动webui.sh脚本,这里会下载一些所需要的模块依赖
1 | bash webui.sh |
若依然无法下载,比如gfpgan等等
可切换清华源多次尝试,可以下载成功
autodl平台可在这里切换清华源或者阿里源
pypi | 镜像站使用帮助 | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror
https://mirrors.tuna.tsinghua.edu.cn/help/pypi/
这里按照autodl平台要求,设置端口为6006启动
1 | bash webui.sh --listen --port 6006 |
运行成功后,如图所示
在控制台点击自定义服务,打开webui界面
生成图片时,出现报错
通过查询,发现原因是torch和cuda版本不匹配问题
首先查看了安装的版本 cuda 11.8;torch 1.12.1
根据运行时给出的警告,在官网查询所需版本
PyTorch
https://pytorch.org/get-started/locally/
1 | pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 |
再次查看torch版本,已经更新到2.0.1
1 | python -m torch.utils.collect_env |
再次运行,可以正常出图
1 | bash webui.sh --listen --port 6006 |