- Tern-SD 使用教程
Term-SD 在下载好后,只会有一个基础的配置脚本term-sd.sh,当运行这个配置脚本时,Term-SD 会检测运行所需依赖。当检测到缺少依赖时,Term-SD 会提示用户需要去安装的依赖,并自动退出,这时候需要用户检查这些依赖是否安装,并且把缺失的依赖装上
当检测到依赖都安装时,脚本会自动安装 Term-SD 的完整组件
当成功下载时,Term-SD 将会自动初始化模块,并启动
Note
成功进入 Term-SD 的界面后,使用方向键、Tab 键移动光标,方向键/F,B键翻页(鼠标滚轮无法翻页),Enter 键进行选择,Space 键勾选或取消勾选,(已勾选时显示[*]),Ctrl + Shift + V粘贴文本,Ctrl + C可中断指令的运行,鼠标左键可点击按钮(右键无效)
Term-SD 在成功启动后,首先显示的是各个组件的版本信息,选择确定后就进入 Term-SD 的主界面
主界面有以下选项
- 1、Term-SD 更新管理:管理,修复 Term-SD 的更新
- 2、Stable Diffusion WebUI 管理:包含各种 Stable Diffusion WebUI 的管理功能
- 3、ComfyUI 管理:包含各种 ComfyUI 的管理功能
- 4、InvokeAI 管理:包含各种 InvokeAI 的管理功能
- 5、Fooocus 管理:包含各种 Fooocus 的管理功能
- 6、lora-scripts 管理:包含各种 lora-scripts 的管理功能
- 7、kohya_ss 管理:包含各种 kohya_ss 的管理功能
- 7、Term-SD 设置:包含 Term-SD 各种设置
- 8、Term-SD 帮助:Term-SD 的各种帮助文档
Term-SD 在使用安装、管理 AI 软件的功能时,会使用准备功能来对一些操作进行准备工作,共有以下功能
Note
这些功能会经常出现
有以下选项:
- 1、启用 PyPI 镜像源:Term-SD 调用 Pip 下载 Python 软件包时使用国内镜像源进行下载
- 2、使用全局 PyPI 镜像源:使用 Term-SD 设置中配置的 PyPI 镜像源,而不是安装准备界面中所选择的 PyPI 镜像源
- 3、HuggingFace / Github独占代理:Term-SD 安装 AI 软件的过程仅为 HuggingFace / Github 下载源启用代理,减少代理流量的消耗
- 4、使用 Modelscope 模型下载源:将安装时使用的 HuggingFace 模型下载源改为 Modelscope 模型下载源(HuggingFace 在国内无法直接访问)
- 5、Github 镜像源自动选择:测试可用的 Github 镜像源并选择自动选择,选择该选项后将覆盖手动设置的 Github 镜像源
- 6、使用全局 Github 镜像源配置:当设置了全局 Github 镜像源时,禁用 Github 镜像自动选择
- 7、启用 Github 镜像源:Term-SD 从 Github 克隆源代码时使用 Github 镜像站进行克隆
一般这些选项保持默认即可
Note
1、强制使用 Pip一般不需要启用,该选项向 Pip 传达 --break-system-packages 参数进行安装,忽略系统的警告,参考https://stackoverflow.com/questions/75602063/pip-install-r-requirements-txt-is-failing-this-environment-is-externally-mana
2、在使用驱动模式或者 TUN 模式的代理软件时,HuggingFace / Github 独占代理功能无效,因为代理软件会强制让所有网络流量走代理
3、Github 镜像源有多个,可以根据 Term-SD 的设置->网络连接测试的测试结果来选择,或者勾选Github 镜像源自动选择让 Term-SD 自动选择
4、当所有 Github 镜像源都不可用时,只能把所有的启用 Github 镜像源、Github 镜像源自动选择选项取消勾选
有以下版本组合:
- Torch 2.9.0 (CUDA 12.6) + xFormers 0.0.33
- Torch 2.9.0 (CUDA 12.8) + xFormers 0.0.33
- Torch 2.9.0 (CUDA 13.0) + xFormers 0.0.33
- Torch 2.9.0 (Intel XPU)
- Torch 2.9.0 (ROCm 6.3)
- Torch 2.9.0 (ROCm 6.4) + xFormers 0.0.33
- Torch 2.9.0 (CPU)
- Torch 2.9.0
- Torch 2.8.0 (CUDA 12.6) + xFormers 0.0.32.post2
- Torch 2.8.0 (CUDA 12.8) + xFormers 0.0.32.post2
- Torch 2.8.0 (CUDA 12.9) + xFormers 0.0.32.post2
- Torch 2.8.0 (Intel XPU)
- Torch 2.8.0 (ROCm 6.3)
- Torch 2.8.0 (ROCm 6.4) + xFormers 0.0.32.post2
- Torch 2.8.0 (CPU)
- Torch 2.8.0
- Torch 2.7.1 (CUDA 11.8) + xFormers 0.0.31.post1 (Linux)
- Torch 2.7.1 (CUDA 12.6) + xFormers 0.0.31.post1
- Torch 2.7.1 (CUDA 12.8) + xFormers 0.0.31.post1
- Torch 2.7.1 (Intel XPU)
- Torch 2.7.1 (ROCm 6.2.4) + xFormers 0.0.31.post1 (Linux)
- Torch 2.7.1 (ROCm 6.3) + xFormers 0.0.31.post1 (Linux)
- Torch 2.7.1 (CPU)
- Torch 2.7.1
- Torch 2.7.0 (CUDA 11.8) + xFormers 0.0.30 (Linux)
- Torch 2.7.0 (CUDA 12.6) + xFormers 0.0.30
- Torch 2.7.0 (CUDA 12.8) + xFormers 0.0.30
- Torch 2.7.0 (Intel XPU)
- Torch 2.7.0 (ROCm 6.2.4) + xFormers 0.0.30 (Linux)
- Torch 2.7.0 (ROCm 6.3) + xFormers 0.0.30 (Linux)
- Torch 2.7.0 (CPU)
- Torch 2.7.0
- Torch 2.6.0 (CUDA 11.8) + xFormers 0.0.29.post3 (Linux)
- Torch 2.6.0 (CUDA 12.4) + xFormers 0.0.29.post3
- Torch 2.6.0 (CUDA 12.6) + xFormers 0.0.29.post3
- Torch 2.6.0 (Intel XPU)
- Torch 2.6.0 (ROCm 6.1) + xFormers 0.0.29.post3 (Linux)
- Torch 2.6.0 (ROCm 6.2.4) + xFormers 0.0.29.post3 (Linux)
- Torch 2.6.0 (CPU)
- Torch 2.6.0
- Torch 2.5.1 (CUDA 11.8) + xFormers 0.0.28.post3 (Linux)
- Torch 2.5.1 (CUDA 12.1) + xFormers 0.0.28.post3 (Linux)
- Torch 2.5.1 (CUDA 12.4) + xFormers 0.0.28.post3
- Torch 2.5.1 (ROCm 6.1) + xFormers 0.0.28.post3 (Linux)
- Torch 2.5.1 (ROCm 6.2) (Linux)
- Torch 2.5.1 (CPU)
- Torch 2.5.1
- Torch 2.5.0 (CUDA 11.8) + xFormers 0.0.28.post2 (Linux)
- Torch 2.5.0 (CUDA 12.1) + xFormers 0.0.28.post2 (Linux)
- Torch 2.5.0 (CUDA 12.4) + xFormers 0.0.28.post2
- Torch 2.5.0 (ROCm 6.1) + xFormers 0.0.28.post2 (Linux)
- Torch 2.5.0 (ROCm 6.2) (Linux)
- Torch 2.5.0 (CPU)
- Torch 2.5.0
- Torch 2.4.1 (CUDA 11.8) + xFormers 0.0.28.post1 (Linux)
- Torch 2.4.1 (CUDA 12.1) + xFormers 0.0.28.post1 (Linux)
- Torch 2.4.1 (CUDA 12.4) + xFormers 0.0.28.post1
- Torch 2.4.1 (ROCm 6.1) + xFormers 0.0.28.post1 (Linux)
- Torch 2.4.1 (CPU)
- Torch 2.4.1
- Torch 2.4.0 (CUDA 11.8) + xFormers 0.0.27.post2
- Torch 2.4.0 (CUDA 12.1) + xFormers 0.0.27.post2
- Torch 2.4.0 (CUDA 12.4)
- Torch 2.4.0 (ROCm 6.0) (Linux)
- Torch 2.4.0 (CPU)
- Torch 2.4.0
- Torch 2.3.1 (CUDA 11.8) + xFormers 0.0.27
- Torch 2.3.1 (CUDA 12.1) + xFormers 0.0.27
- Torch 2.3.1 (ROCm 6.0) (Linux)
- Torch 2.3.1 (DirectML)
- Torch 2.3.1 (CPU)
- Torch 2.3.1
- Torch 2.3.0 (CUDA 11.8) + xFormers 0.0.26.post1
- Torch 2.3.0 (CUDA 12.1) + xFormers 0.0.26.post1
- Torch 2.3.0 (ROCm 6.0) (Linux)
- Torch 2.3.0 (CPU)
- Torch 2.3.0
- Torch 2.2.2 (CUDA 11.8) + xFormers 0.0.25.post1
- Torch 2.2.2 (CUDA 12.1) + xFormers 0.0.25.post1
- Torch 2.2.2 (ROCm 5.7) (Linux)
- Torch 2.2.2 (CPU)
- Torch 2.2.2
- Torch 2.2.1 (CUDA 11.8) + xFormers 0.0.25
- Torch 2.2.1 (CUDA 12.1) + xFormers 0.0.25
- Torch 2.2.1 (ROCm 5.7) (Linux)
- Torch 2.2.1 (DirectML)
- Torch 2.2.1 (CPU)
- Torch 2.2.1
- Torch 2.2.0 (CUDA 11.8) + xFormers 0.0.24
- Torch 2.2.0 (CUDA 12.1) + xFormers 0.0.24
- Torch 2.2.0 (ROCm 5.7) (Linux)
- Torch 2.2.0 (CPU)
- Torch 2.2.0
- Torch 2.1.2 (CUDA 11.8) + xFormers 0.0.23.post1
- Torch 2.1.2 (CUDA 12.1) + xFormers 0.0.23.post1
- Torch 2.1.2 (ROCm 5.6) (Linux)
- Torch 2.1.2 (CPU)
- Torch 2.1.2
- Torch 2.1.1 (CUDA 11.8) + xFormers 0.0.23
- Torch 2.1.1 (CUDA 12.1) + xFormers 0.0.23
- Torch 2.1.1 (ROCm 5.6) (Linux)
- Torch 2.1.1 (CPU)
- Torch 2.1.1
- Torch 2.1.0 (Intel Arc)
- Torch 2.1.0 (Intel Core Ultra)
- Torch 2.1.0 (ROCm 5.6) (Linux)
- Torch 2.1.0 (CPU)
- Torch 2.1.0
- Torch 2.0.1 (CUDA 11.8) + xFormers 0.0.22
- Torch 2.0.1 (ROCm 5.4.2) (Linux)
- Torch 2.0.1 (CPU)
- Torch 2.0.1
- Torch 2.0.0 (CUDA 11.8) + xFormers 0.0.18
- Torch 2.0.0 (Intel Arc)
- Torch 2.0.0 (DirectML)
- Torch 2.0.0 (CPU)
- Torch 2.0.0
- Torch 1.13.1 (CUDA 11.7) + xFormers 0.0.16
- Torch 1.13.1 (DirectML)
- Torch 1.13.1 (CPU)
- Torch 1.13.1
- Torch 1.12.1 (CUDA 11.3) + xFormers 0.0.14
- Torch 1.12.1 (CPU)
- Torch 1.12.1
- Torch + xFormers
- Torch
选择版本时需要根据系统类型和显卡选择
- 在 Windows 系统中,Nvidia 显卡选择 Torch(CUDA)+ xFormers 的版本,AMD 显卡选择 Torch (Directml) 的版本,Intel 显卡选择 Torch (Intel Arc / Core Ultra) 的版本(核显选择 Intel Core Ultra 版本,独显选择 Intel Arc 版本)
- 在 Linux 系统中,Nvidia 显卡选择 Torch(CUDA)+ xFormers 的版本,AMD 显卡选择 Torch (ROCm) 的版本,Intel 显卡选择 Torch (Intel Arc / Core Ultra) 版本
- 在 MacOS 系统中,选择 Torch 版本
- 如果想要使用 CPU 进行跑图,选择 Torch + CPU 的版本
- 一般来说找到对应显卡型号的类型后,选择最新版本的就行
- 标记为 Linux 的版本只能在 Linux 系统上安装
该功能用于选择安装的 PyTorch 类型
可选的类型:
- CUDA (Nvidia 显卡)
- ROCm (AMD 显卡)
- XPU (Intel 显卡)
- CPU (使用 CPU)
Note
目前该选项用于 InvokeAI 的安装中
该功能用于选择 Pip 的安装模式
该界面共有 4 种模式可以选择:
- 1、更新软件包 (--upgrade):安装时将更新软件包
- 2、标准构建安装 (--use-pep517):使用标准构建安装 Python 软件包,可以解决部分软件包无法正常安装的问题,但安装耗时较长
- 3、强制重新安装 (--force-reinstall):如果要安装的软件已存在时则重新安装
- 4、强制使用 Pip 安装 (--break-system-packages):强制使用 Pip 安装 Python 软件包,忽略系统的警告,一般只有在禁用虚拟环境后才需要启用
Note
在 Linux 系统中使用常规安装(setup.py)可能会出现安装失败的问题,所以推荐使用标准构建安装(--use-pep517)
该功能用于选择对 Python 软件包的操作方式
该界面有以下选项
- 1、常规安装(install):安装 Python 软件包并安装该软件包依赖的软件包
- 2、仅安装(--no-deps):安装 Python 软件包,但不安装该软件包依赖的软件包
- 3、强制重装(--force-reinstall):强制安装 Python 软件包,当该软件包已存在,则重新安装,且强制安装该软件包依赖的软件包
- 4、仅强制重装(--no-deps --force-reinstall):强制安装 Python 软件包,当该软件包已存在,则重新安装,但不安装该软件包依赖的软件包
- 5、卸载(uninstall):卸载 Python 软件包
当缺失某个软件包时,选择安装
当某个软件包损坏时,可以选择强制重装
如果需要卸载某个软件包,就选择卸载
Note
该选项仅在Python 软件包安装 / 重装 / 卸载功能出现
该功能用于展示部分安装信息,并确认是否安装
当 Term-SD 在因为某些原因中断安装进程时,再次进入管理界面即可恢复上次的安装进度(Term-SD 依然会从头遍历安装命令,但已经执行成功的命令将不会执行)
该界面有以下选项
- 1、继续执行安装任务:继续之前中断的安装任务
- 2、重新设置安装参数并进行安装:删除之前的安装任务,并重新设置安装参数
- 3、删除安装任务并进入管理界面:删除之前的安装任务,并进入管理界面
- 4、跳过安装任务并进入管理界面:不删除之前的安装任务,并直接进入管理界面,但下一次进入管理界面时会弹出安装进度恢复选项
安装前,我们需要做一些准备
Important
Term-SD 在首次启动时将自动配置以下选项,无需手动配置
- 1、设置代理(可选,如果没有一个质量比较好的代理时就不要设置了)
Important
Term-SD 默认已配置该选项,可忽略
如果用户有代理软件,并且代理的速度和稳定性较好,则先判断代理软件的代理工作模式,一般有TUN模式或者虚拟网卡模式的就不需要设置代理,因为这两种代理模式可以让终端环境走代理(其余模式不行)
但是TUN模式或者虚拟网卡模式会让所有流量走代理,而 Term-SD 在安装 AI 软件的过程中只有部分下载源需要代理,这将会造成代理流量的浪费。所以,如果代理软件有其他代理模式,最好选这些的,并查看代理软件的代理协议、IP 和端口,然后在 Term-SD 主界面的代理设置里选择代理协议,填入 IP 和端口,回车保存,这样 Term-SD 就可以决定哪些流量需要走代理
如果代理没有TUN模式或者虚拟网卡模式,则查看代理软件的代理协议、IP 和端口,然后在 Term-SD 设置的代理设置里选择代理协议,填入 IP 和端口,回车保存
这里举例代理如何填写:
- (1)查找代理协议,IP,端口
查找代理软件为其他软件提供代理时使用的协议,一般来说 Http 和 Socks 比较常见(不是 Vless,SSR 这类协议,这类协议是用在代理软件和代理服务器之间传输数据的),然后查看代理的 IP 和端口,常见的 IP 和端口分别是 127.0.0.1 和 10809
现在的得到以下信息了
协议:http
ip:127.0.0.1
端口:10809
- (2)填入信息
打开 Term-SD设置,选择代理设置,这里询问选择协议,根据刚刚的得到的信息,选择Http协议,回车,在弹出的输入框中输入127.0.0.1:10809,回车保存
- (3)确认代理是否正常使用
在 Term-SD 的设置中,选择网络连接测试进行网络测试,当检测到 Google、HuggingFace 能够正常访问的时候,说明代理能够正常使用
Note
在不使用代理后,需要在代理设置选择删除代理参数来清除代理,防止在代理软件关闭后出现 Term-SD 无法访问网络的问题
- 2、设置 PyPI 镜像源(推荐)
Important
Term-SD 默认已配置该选项,可忽略
首先我们在 Term-SD 设置选择Pip镜像源设置,进入后可选择官方源和国内镜像源,这里非常推荐设置为国内镜像源(如果之前为 Pip 设置镜像源,包括 PyPI 源、PyTorch 源,则不需要再次设置Pip镜像源)
- 3、设置安装重试功能(推荐)
Important
Term-SD 默认已配置该选项,可忽略
在 Term-SD 设置选择命令执行监测设置,选择启用,输入重试次数(推荐 3),这时就设置好安装重试功能了,在安装 AI 软件时如果遇到网络不稳定导致命令执行的中断时,将会重新执行中断的命令,保证安装的顺利进行
- 4、设置 Github / HuggingFace 全局镜像源(推荐)
Important
Term-SD 默认已配置该选项,可忽略
在 Term-SD 的设置中可以看到Github 镜像源设置和HuggingFace 镜像源设置,进入设置后可以看到不同的镜像源,可使用自动选择镜像源的功能来设置一个可用的镜像源。
进行上面的步骤后就可以进行 AI 软件的安装
Term-SD 支持 Stable Diffusion WebUI,ComfyUI,InvokeAI,Fooocus,lora-scripts,kohya_ss。在 Term-SD 的主界面对应下面的选项
- 1、Stable Diffusion WebUI 管理
- 2、ComfyUI 管理
- 3、InvokeAI 管理
- 4、Fooocus 管理
- 5、lora-scripts 管理
- 6、kohya_ss 管理
需要安装哪一种就选择哪一个管理选项
Note
1、安装过程请保持网络通畅
2、当 AI 软件安装好后,能启动且无报错时,最好使用依赖库版本管理将依赖库的软件包版本备份下来,当AI软件因为软件包版本问题导致AI软件出现报错时就可以用这个功能恢复原来的依赖库版本
3、Term-SD 支持自定义 AI 软件的安装目录,可以在 Term-SD 的设置 -> 自定义安装路径中进行设置
Note
Stable Diffusion WebUI 是一款功能丰富,社区资源丰富的 AI 绘画软件,支持扩展
选中Stable Diffusion WebUI 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
第一个是安装镜像选项,共有以下选项
- 1、启用 PyPI 镜像源:Term-SD 调用 Pip 下载 Python 软件包时使用国内镜像源进行下载
- 2、使用全局 PyPI 镜像源:使用 Term-SD 设置中配置的 PyPI 镜像源,而不是安装准备界面中所选择的 PyPI 镜像源
- 3、HuggingFace / Github独占代理:Term-SD 安装 AI 软件的过程仅为 HuggingFace / Github 下载源启用代理,减少代理流量的消耗
- 4、强制使用 Pip:强制使用 Pip 安装 Python 软件包,忽略系统的警告,一般只有在禁用虚拟环境后才需要启用
- 5、使用 Modelscope 模型下载源:将安装时使用的 HuggingFace 模型下载源改为 Modelscope 模型下载源(HuggingFace 在国内无法直接访问)
- 6、Github 镜像源自动选择:测试可用的 Github 镜像源并选择自动选择,选择该选项后将覆盖手动设置的 Github 镜像源
- 7、使用全局 Github 镜像源配置:当设置了全局 Github 镜像源时,禁用 Github 镜像自动选择
- 8、启用 Github 镜像源:Term-SD 从 Github 克隆源代码时使用 Github 镜像站进行克隆
一般这些选项保持默认即可
Note
1、强制使用 Pip一般不需要启用,该选项向 Pip 传达 --break-system-packages 参数进行安装,忽略系统的警告,参考https://stackoverflow.com/questions/75602063/pip-install-r-requirements-txt-is-failing-this-environment-is-externally-mana
2、在使用驱动模式或者 TUN 模式的代理软件时,HuggingFace / Github 独占代理功能无效,因为代理软件会强制让所有网络流量走代理
3、Github 镜像源有多个,可以根据 Term-SD 的设置->网络连接测试的测试结果来选择,或者勾选Github 镜像源自动选择让 Term-SD 自动选择
4、当所有 Github 镜像源都不可用时,只能把所有的启用 Github 镜像源、Github 镜像源自动选择选项取消勾选
第二个是 PyTorch 版本的选择界面
选择版本时需要根据系统类型和显卡选择
- 在 Windows 系统中,Nvidia 显卡选择 Torch(CUDA)+ xFormers 的版本,AMD 显卡选择 Torch (Directml) 的版本,Intel 显卡选择 Torch (Intel Arc / Core Ultra) 的版本(核显选择 Intel Core Ultra 版本,独显选择 Intel Arc 版本)
- 在 Linux 系统中,Nvidia 显卡选择 Torch(CUDA)+ xFormers 的版本,AMD 显卡选择 Torch (ROCm) 的版本,Intel 显卡选择 Torch (Intel Arc / Core Ultra) 版本
- 在 MacOS 系统中,选择 Torch 版本
- 如果想要使用 CPU 进行跑图,选择 Torch + CPU 的版本
- 一般来说找到对应显卡型号的类型后,选择最新版本的就行
- 标记为 Linux 的版本只能在 Linux 系统上安装
第三个为 Stable-Diffusion-WebUI 分支选择,可选的 Stable-Diffusion-WebUI 分支如下:
- AUTOMATIC1111 - Stable-Diffusion-WebUI 主分支
- AUTOMATIC1111 - Stable-Diffusion-WebUI 测试分支
- lllyasviel - Stable-Diffusion-WebUI-Forge 分支
- Panchovix - stable-diffusion-webui-reForge 主分支
- Panchovix - stable-diffusion-webui-reForge 测试分支
- Haoming02 - Stable-Diffusion-WebUI-Forge-Classic 分支
- lshqqytiger - Stable-Diffusion-WebUI-AMDGPU 分支
- vladmandic - SD.NEXT 主分支
- vladmandic - SD.NEXT 测试分支
根据自己的需求进行选择
- AUTOMATIC1111 - Stable-Diffusion-WebUI 分支稳定性较高,推荐选择
- lllyasviel - Stable-Diffusion-WebUI-Forge 分支对显存优化较好,并且支持 FLUX 模型,如果有 FLUX 模型的需求可选择该分支。由于使用 Forge 推理后端,并且前端使用了 Gradio 4,可能会导致 AUTOMATIC1111 - Stable-Diffusion-WebUI 分支上的插件在 lllyasviel - Stable-Diffusion-WebUI-Forge 分支上无法使用
- Panchovix - stable-diffusion-webui-reForge 分支基于 lllyasviel - Stable-Diffusion-WebUI-Forge 分支进行开发,因为使用 Gradio 3,相比于lllyasviel - Stable-Diffusion-WebUI-Forge 分支,对 AUTOMATIC1111 - Stable-Diffusion-WebUI 分支上插件兼容性较好
- Haoming02 - Stable-Diffusion-WebUI-Forge-Classic 分支基于 lllyasviel - Stable-Diffusion-WebUI-Forge 分支,功能上做了精简,更加轻量,速度更快
- lshqqytiger - Stable-Diffusion-WebUI-AMDGPU 分支优化了 DirectML 和 ZLUDA 的支持,AMD 显卡可选择该分支
- vladmandic - SD.NEXT 分支不推荐使用
第四个是插件选择,Term-SD 默认已经勾选一些比较有用的插件,可以根据个人需求进行选择
在 Term-SD 的帮助列表中可以查看插件功能的描述,了解插件的用途
第五个时模型选择,这里可以选择 Term-SD 要下载的模型,Term-SD 默认帮你勾选了一些模型,可根据自己需求来选择,在选项后的括号内标注了模型的大小
该功能用于选择 Pip 的安装模式
该界面共有 4 种模式可以选择:
- 1、更新软件包 (--upgrade):安装时将更新软件包
- 2、标准构建安装 (--use-pep517):使用标准构建安装 Python 软件包,可以解决部分软件包无法正常安装的问题,但安装耗时较长
- 3、强制重新安装 (--force-reinstall):如果要安装的软件已存在时则重新安装
- 4、强制使用 Pip 安装 (--break-system-packages):强制使用 Pip 安装 Python 软件包,忽略系统的警告,一般只有在禁用虚拟环境后才需要启用
通常情况下保持默认即可
Note
在 Linux 系统中如果不使用标准构建安装(--use-pep517)可能会出现安装失败的问题,如果不追求安装速度,可尝试勾选该选项,但是勾选后将增加安装 Python 软件包的时长
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
Note
首次启动 Stable Diffusion WebUI 时在检查依赖完整性过程耗时较长,需要耐心等待。
Note
ComfyUI 是一款节点式操作的 AI 绘画软件,上手难度较高,但是节点赋予 ComfyUI 更高的操作上限,且支持将节点工作流保存成文件,支持扩展。同时 ComfyUI 让用户更好的理解 AI 绘画的工作原理
选中 ComfyUI 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
第三个是插件选择,这里不需要勾选任何插件,直接回车进入自定义节点的安装选项
Note
在 ComfyUI 中的扩展分为自定义节点和插件,只不过自定义节点很多,而插件几乎没见有人制作(疑似被遗弃),所以有些人也把自定义节点称为插件。
保留这个选项的原因是因为 ComfyUI 确实存在这个东西,只不过接近废弃
参考:Comfy-Org/ComfyUI#631
第四个是自定义节点选择,Term-SD 默认已经勾选一些比较有用的自定义节点,可以根据个人需求进行选择
在 Term-SD 的帮助列表中可以查看自定义节点功能的描述,了解自定义节点的用途
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
Note
1、在安装结束后,如果有自定义节点的,需要在ComfyUI管理 -> 自定义节点管理里运行安装全部全部自定义节点依赖,保证自定义节点的正常运行(因为 ComfyUI 并没有 Stable Diffusion WebUI 自动为扩展安装依赖的功能)
2、如果扩展ComfyUI-Manager成功安装,可以不用执行安装全部全部自定义节点依赖,因为ComfyUI-Manager能够自动为扩展安装依赖(ComfyUI-Manager把ComfyUI缺失的这个功能给补上了(?),不过ComfyUI-Manager很多情况下不会自动为其它扩展装依赖,所以需要在ComfyUI管理->自定义节点管理里运行安装全部全部自定义节点依赖手动装一下)。
3、设置中文:进入 ComfyUI 界面,点击右上角的齿轮图标进入设置,找到AGLTranslation-langualge,选择中文[Chinese Simplified],ComfyUI 将会自动切换中文
Note
InvokeAI 是一款操作界面简单的 AI 绘画软件,功能较少,但拥有特色功能统一画布,用户可以在画布上不断扩展图片的大小。
目前已经加入了节点功能,可玩性相对早期版本有了较大的提高
选中 InvokeAI 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
和 Stable Diffusion WebUI 的选择方法相同
根据自己使用的显卡类型进行选择
第三个是自定义节点选择,Term-SD 默认已经勾选一些比较有用的自定义节点,可以根据个人需求进行选择
在 Term-SD 的帮助列表中可以查看自定义节点功能的描述,了解自定义节点的用途
和 Stable Diffusion WebUI 的选择方法相同
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
Note
1、安装完成后,在启动选项选择(web)启动 WebUI 界面
2、设置中文:进入 InvokeAI 界面,点击右上角的三条横杠的图标,点击Settings,然后找到Language选项,点击文字下方的选项框,找到简体中文并选中,InvokeAI 就会把界面切换成中文
3、如果发现生图速度较慢,显卡没有占用,可能是 PyTorch 的版本出现了问题,需要使用管理界面中重新安装 PyTorch功能选择正确的 PyTorch 版本进行安装
Note
Fooocus 是一款专为 SDXL 模型优化的 AI 绘画软件,界面简单,让使用者可以专注于提示词的书写,而且有着非常强的内存优化和速度优化,强于其他同类 WebUI。目前 Fooocus 对标 Midjourney,为把复杂的生图流程进行简化
选中 Fooocus 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
Note
lora-scripts 是一款 AI 模型训练工具,支持训练 Lora 模型、Dreambooth 模型,而且界面附带各个训练参数的解释,为使用者降低了操作难度。lora-scripts 还附加了图片批量打标签的工具和图片标签批量编辑工具,非常方便
选中 lora-scripts 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
Note
kohya_ss 是一款AI模型训练工具,支持训练 Lora、Dreambooth、Finetune、Train Network 模型
选中 kohya_ss 管理后,Term-SD 会检测该 AI 是否安装,如果没有安装,Term-SD 会提示用户是否进行安装
选择是之后,Term-SD 会进入安装准备选项
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
和 Stable Diffusion WebUI 的选择方法相同
最后一个是安装确认,选择是开始安装
安装时间根据网络速度和电脑性能决定
当 AI 软件成功安装后,就可以使用 Term-SD 的管理功能来启动或者管理 AI 了
在 6 个 AI 管理界面中,包含一些功能对 AI 进行管理
更新 AI 软件。
Note
1、有时候扩展和 AI 软件的版本不匹配时(AI 软件的版本很新,而扩展的版本很旧),就容易出现报错,此时就可以通过更新解决
2、在出现 Git 分支游离时,修复更新将在更新时自动运行
卸载 AI 软件,且该操作无法恢复,请谨慎选择
该功能用于修复 Git 分支游离或者还原被修改的源代码,使用时将会把分支切换成主分支并还原被修改的源代码
该功能用于管理插件,包含以下功能
- 1、安装:使用 Git 安装插件
- 2、管理:对插件进行管理,提供了一个插件列表浏览器来选择插件
- 3、更新全部插件:一键更新全部插件
- 4、安装全部插件依赖:一键将所有插件需要的依赖进行安装(仅限 ComfyUI)
选中一个插件后,包含以下功能用于管理插件:
- (1) 更新:更新插件
- (2) 卸载:卸载插件,且该操作无法恢复,请谨慎选择
- (3) 修复更新:修复 Git 分支游离或者还原被修改的插件的源代码
- (4) 切换版本:切换插件的版本
- (5) 更新源切换:切换插件的更新源,加速下载;当某个 Github 镜像源无法使用导致无法更新插件时,也可以使用该功能将更新源切换到可用的 Github 镜像源或者切换成 Github 源
- (6) 安装依赖(仅限 ComfyUI):安装插件运行时所需的依赖
- (7) 启用 / 禁用插件:可选择启用或者禁用插件
Note
1、如果安装了ComfyUI-Manager这个扩展,就不需要使用安装全部插件依赖这个功能了(ComfyUI-Manager把ComfyUI缺失的这个功能给补上了(?),不过ComfyUI-Manager有时候不会自动为其它扩展装依赖,这时就使用安装全部插件依赖来手动安装依赖)
2、有时候扩展和 AI 软件的版本不匹配时(AI 软件的版本很新,而扩展的版本很旧),就容易出现报错,此时就可以通过更新解决
用于管理自定义节点,包含以下功能
Note
仅限 ComfyUI 和 InvokeAI
- 1、安装:使用 Git 安装自定义节点
- 2、管理:对插件进行管理,提供了一个自定义节点列表浏览器来选择插件
- 3、更新全部自定义节点:一键更新全部自定义节点
- 4、安装全部自定义节点依赖:一键将所有自定义节点需要的依赖进行安装
选中一个自定义节点后,包含以下功能用于管理自定义节点:
- (1) 更新:更新自定义节点
- (2) 卸载:卸载自定义节点,且该操作无法恢复,请谨慎选择
- (3) 修复更新:修复 Git 分支游离或者还原被修改的自定义节点的源代码
- (4) 切换版本:切换自定义节点的版本
- (5) 更新源切换:切换自定义节点的更新源,加速下载;当某个 Github 镜像源无法使用导致无法更新插件时,也可以使用该功能将更新源切换到可用的 Github 镜像源或者切换成 Github 源
- (6) 安装依赖:安装自定义节点运行时所需的依赖
- (7) 启用 / 禁用自定义节点:可选择启用或者禁用自定义节点
Note
1、如果安装了ComfyUI-Manager这个扩展,就不需要使用安装全部自定义节点依赖这个功能了(ComfyUI-Manager把ComfyUI缺失的这个功能给补上了,不过ComfyUI-Manager有时候不会自动为其它扩展装依赖,这时就使用安装全部自定义节点依赖来手动安装依赖)
2、有时候扩展和 AI 软件的版本不匹配时(AI 软件的版本很新,而扩展的版本很旧),就容易出现报错,此时就可以通过更新解决
该功能将会列出所有版本的 Hash 值和对应的日期,可根据这些进行版本选择并切换过去
该功能用于切换更新源,加速下载;当某个 Github 镜像源无法使用导致无法更新插件时,也可以使用该功能将更新源切换到可用的 Github 镜像源或者切换成 Github 源
Note
有时候某个 Github 镜像源无法使用的时候,使用更新功能时就会导致更新失败,可以通过该功能把更新源切换成其他的 Github 镜像源,如果镜像源都无法使用时,就把更新源切换成 Github 源
该功能用于启动 AI 软件
Note
1、在 Stable Diffusion WebUI、ComfyUI、InvokeAI,Fooocus 中可以选择配置预设启动参数或者修改自定义启动参数,从而使用一些功能
2、当使用配置预设启动参数来配置启动参数时,将会删除之前设置的启动参数。而使用修改自定义启动参数可以修改上次设置的启动参数
下面是一些特殊的启动参数
- Stable Diffusion WebUI
如果需要使用 CPU 作为生成引擎,需要使用以下启动参数--use-cpu all --skip-torch-cuda-test --no-half --no-half-vae --precision full
- Stable Diffusion WebUI AMDGPU
可使用--use-cpu all、--use-directml、--use-zluda、--use-ipex将生成引擎切换到CPU、DirectML、ZLUDA、IPEX。
- Stable Diffusion WebUI Forge
如果需要共享 Stable Diffusion WebUI 的模型,可以使用--forge-ref-a1111-home <SD WebUI 路径>
SD WebUI Forge 有 3 个实验启动参数,可为图片生成进行加速:--cuda-malloc --cuda-stream --pin-shared-memory
- InvokeAI
InvokeAI 已经移除了启动参数,如果想要修改一些设置,需要修改 InvokeAI 的配置文件,具体可参考:https://invoke-ai.github.io/InvokeAI/features/CONFIGURATION
该功能用于更新 AI 软件依赖的 Python 软件包,可用于解决 AI 软件的部分依赖版本太旧导致运行报错,一般用不上
Note
有时通过更新 AI 软件依赖可解决报错问题
该功能用于重新执行 AI 软件的安装过程,一般用不上
该功能用于切换 PyTorch 的版本
- 1、当 PyTorch 出现问题导致 PyTorch 无法使用 GPU 时,可以使用该功能重装 PyTorch
- 2、当 PyTorch 版本和 GPU 不匹配时,可以通过该功能切换版本
- 3、当需要更新 PyTorch 时,也可以使用这个功能来更新
Note
在重新安装 PyTorch 前,Term-SD 将弹出 PyTorch 版本的选择、是否使用标准编译安装、是否使用强制安装的的选项,选择完成后会弹出确认安装的选项,选择确定进行安装
该功能用于切换 PyTorch 的类型
可选的类型:
- CUDA (Nvidia 显卡)
- ROCm (AMD 显卡)
- XPU (Intel 显卡)
- CPU (使用 CPU)
Note
目前该选项用于 InvokeAI 管理中
该功能用于修复生成 AI 软件使用的虚拟环境,一般在移动 AI 软件的位置,AI 软件运行出现问题后才用
Note
1、虚拟环境在移动位置后就出现问题,这是一个特性。当然这个功能可以解决这个问题
2、该功能已改成自动执行,当检测到虚拟环境出现问题时将自动执行修复
该功能用于重新构建 AI 软件使用的虚拟环境,一般用在移动AI软件的位置后、AI 软件运行出现报错(有一些时候是 Python 依赖库出现了版本错误或者损坏,或者装了一些插件后出现问题,删除插件后问题依然没有解决)、安装 AI 软件前禁用了虚拟环境,安装后启用了虚拟环境,需要修复虚拟环境
这个功能一般不需要用,除非解决不了一些 Python 库报错问题(因为该功能将会重新构建虚拟环境,需要消耗比较长的时间)
Note
这个功能可以解决环境出现严重问题、环境因为安装一些东西而炸掉。如果这个功能还不能解决报错,有可能是因为 AI 本体和插件的版本冲突, Python 版本过新或者过旧等问题。在这种情况下只能自行查找原因
Note
仅限Stable Diffusion WebUI
该功能用于把AUTOMATIC1111/Stable Diffusion WebUI的分支切换成vladmandic/SD.NEXT或者lshqqytiger/Stable Diffusion WebUI-DirectML(或者切换回来),或者切换成主分支或者测试分支
该功能用于安装/重装/卸载 Python 软件包,处理 Python 软件包的问题
界面有以下选项:
- 1、常规安装(install):安装 Python 软件包并安装该软件包依赖的软件包
- 2、仅安装(--no-deps):安装 Python 软件包,但不安装该软件包依赖的软件包
- 3、强制重装(--force-reinstall):强制安装 Python 软件包,当该软件包已存在,则重新安装,且强制安装该软件包依赖的软件包
- 4、仅强制重装(--no-deps --force-reinstall):强制安装 Python 软件包,当该软件包已存在,则重新安装,但不安装该软件包依赖的软件包
- 5、卸载(uninstall):卸载 Python 软件包
如何选择:
- (1) 当缺失某个软件包时,选择安装
- (2) 当某个软件包损坏时,可以选择强制重装
- (3) 如果需要卸载某个软件包,就选择卸载
- (4) 带有
仅的功能是在安装时只安装用户输入的软件包,而不安装这些软件包的依赖
安装/重装软件包时可以只写包名,也可以指定包名版本;可以输入多个软件包的包名,并使用空格隔开;如果想要更新某个软件包的版本,可以加上-U参数。例:
xformers
xformers==0.0.21
xformers==0.0.21 numpy
numpy -U
该功能用于记录 Python 依赖库的版本,在 AI 软件运行正常时,可以用该功能记录 Python 依赖库的各个软件包版本,当因为装插件等导致依赖库的软件包版本出现错误而导致报错时,可用该功能恢复原来依赖库的各个软件包版本,从而解决报错
Note
比如安装 TensorRT 前,先使用这个功能备份依赖库的版本,然后再安装 TensorRT。当 TensorRT 把依赖库环境搞炸的时候(有概率),把 TernsorRT 卸载,并使用该功能恢复依赖库。如果还没恢复,只能使用重新构建虚拟环境来修复
Note
仅限 Stable Diffusion WebUI,lora-scripts、kohya_ss
该功能用于重新下载后端需要的组件,组件存在以下文件夹中
- Stable Diffusion WebUI:
repositories - lora-scripts:
frontend、mikazuki/dataset-tag-editor - kohya_ss:
sd-scripts
该功能用于对 Term-SD 自身的更新等进行管理,共有以下选项
- 1、更新:更新 Term-SD
- 2、切换更新源:Term-SD 有多个下载源,用于解决某些更新源更新慢或者无法更新的问题
- 3、切换分支:Term-SD 总共有两个分支,主分支和测试分支,一般不需要切换
- 4、修复更新:修复 Git 分支游离或者还原被修改的 Term-SD 的源代码
- 5、设置自动更新:启用后 Term-SD 在启动时会检测是否有更新,当有新版本时会提示用户进行更新
该界面提供了各种配置运行环境的设置,设置如下:
配置 Term-SD 在安装,管理 AI 时是否使用虚拟环境,建议保持启用(默认)。虚拟环境创建了一个隔离环境,保证不同的 AI 软件的 Python 依赖库不会互相干扰,也防止系统中的 Python 依赖库不会互相干扰,因为 AI 软件对同一个 Python 软件包的要求版本不一致
该功能通过修改 Pip 配置文件来修改pip的下载源,而 Term-SD 也包含另一个修改 PyPI 镜像源的功能PyPI 镜像源设置 (环境变量)(环境变量的优先级比配置文件高,所以 Pip 优先使用环境变量的配置),也是类似的功能,只不过不需要修改 Pip 配置文件,个人建议这个设置不用调(因为 Term-SD 默认通过 PyPI 镜像源设置(环境变量)来设置 PyPI 镜像源)
设置中有以下选项:
- 1、设置官方源:将 Pip 的下载源切换成官方源,但可能会导致下载慢或者下载失败的问题
- 2、设置国内镜像源:将 Pip 的下载源切换成国内镜像源,解决官方源下载慢或者下载失败的问题,推荐选择
- 3、删除镜像源配置:将 Pip 的下载源配置清除
该功能通过设置环境变量来设置 PyPI 镜像源(环境变量设置的优先级比配置文件的设置高),而该设置默认选择国内的镜像源,所以一般来说不用修改 设置中有以下选项
- 1、设置官方源:将 Pip 的下载源切换成官方源,但可能会导致下载慢或者下载失败的问题
- 2、设置国内镜像源:将 Pip 的下载源切换成国内镜像源,解决官方源下载慢或者下载失败的问题,推荐选择
该功能用于设置 Term-SD 在安装 Python 软件包时使用的 Python 包管理器,可使用 Pip 或 uv,使用 uv 包管理器可获得更快的安装速度。当 uv 安装 Python 软件包失败时,Term-SD 将自动切换到 Pip 再次重试 uv 的安装任务。
显示 Pip / uv 下载软件包产生的缓存路径和大小,也可以清理 Pip / uv 下载 Python 软件包产生的缓存
该功能为了设置下载时使用的网络代理,解决部分下载源下载失败的问题,因为一些代理软件的代理模式并不能让终端环境使用代理,除了TUN模式或者虚拟网卡模式可以让终端环境使用代理。一般代理软件都会开放一个 IP 和端口用于代理,Term-SD 可以通过手动设置 IP 和端口使终端环境使用代理,解决 AI 软件因无法连接到部分地址(如 HuggingFace)而导致报错。对于有TUN模式或者虚拟网卡模式的代理软件,个人建议不使用这类模式,因为这会让 Term-SD 的所有流量走代理,增大代理流量的消耗(代理流量多的可以不用在意),所以建议使用该功能设置代理
设置有以下选项:
- 1、动态设置代理:管理动态代理设置,启用后将自动检测系统代理并设置。如需手动设置代理,需将动态设置代理禁用
- 2、设置 Http 代理:设置 Http 协议的代理
- 3、设置 Socks 代理:设置 Socks 协议的代理
- 4、设置 Socks5 代理:设置 Socks5 协议的代理
- 5、设置自定义协议代理:可以选择预设代理协议之外的协议
- 6、删除代理参数:将设置的代理参数删除,如果启用了动态设置代理,则下次启动 Term-SD 时将会重新根据系统代理设置代理
通常建议使用动态设置代理,让 Term-SD 自动检测系统代理并使用
手动设置代理时,用户需要选择代理协议,具体使用什么代理协议取决于所使用的代理软件开放的 IP 是用什么代理协议
这里举例代理如何填写:
- (1)查找代理协议,IP,端口
查找代理软件为其他软件提供代理时使用的协议,一般来说 Http 和 Socks 比较常见(不是 Vless,SSR 这类协议,这类协议是用在代理软件和代理服务器之间传输数据的),然后查看代理的 IP 和端口,常见的 IP 和端口分别是 127.0.0.1 和 10809
现在的得到以下信息了
协议:http
ip:127.0.0.1
端口:10809
- (2)填入信息
打开 Term-SD设置,选择代理设置,这里询问选择协议,根据刚刚的得到的信息,选择Http协议,回车,在弹出的输入框中输入127.0.0.1:10809,回车保存
- (3)确认代理是否正常使用
在 Term-SD 的设置中,选择网络连接测试进行网络测试,当检测到 Google、HuggingFace 能够正常访问的时候,说明代理能够正常使用
Note
1、在不使用代理后,需要在代理设置里删除代理参数,防止在代理软件关闭后出现 Term-SD 无法访问网络的问题
2、Term-SD 和 AI 软件的运行环境为终端,而终端并不会直接使用代理,所以需要手动设置。这是因为当系统配置了代理后,是否使用系统的代理由软件自己决定,比如浏览器就使用系统的代理,而终端不使用系统的代理,它使用代理是通过设置环境变量。
有关终端设置代理的方法可参考https://blog.csdn.net/Dancen/article/details/128045261
该功能用于设置全局的 Github 的镜像源,解决 Github 无法访问导致插件下载失败或者是插件更新失败的问题
如果需要设置 Github 镜像源,建议选择设置动态 Github 镜像源,让 Term-SD 自动寻找可用的 Github 镜像源。
该功能用于设置全局的 HuggingFace 的镜像源,解决无代理时 HuggingFace 无法访问导致某些报错问题,如 Tagger 插件无法下载反推模型且没有代理来解决这个问题时,就可以通过设置全局的 HuggingFace 的镜像源来解决
如果需要设置 HuggingFace 镜像源,建议选择设置动态 HuggingFace 镜像源,让 Term-SD 自动寻找可用的 HuggingFace 镜像源。
该功能用于监测命令的运行情况,若设置了重试次数,Term-SD 将重试执行失败的命令(有些命令需要联网,在网络不稳定的时候容易导致命令执行失败),保证命令执行成功
Note
Term-SD 在安装成功后默认启用并设置为 3
该功能用于设置 Term-SD 安装 AI 软件的工作模式。当启用严格模式后,Term-SD 在安转 AI 软件时出现执行失败的命令时将停止安装进程(Term-SD 支持断点恢复,可恢复上次安装进程中断的位置),而宽容模式在安转 AI 软件时出现执行失败的命令时忽略执行失败的命令继续执行完成安装任务。默认设置为严格模式
设置有以下选项
- 1、严格模式:将 Term-SD 安装 AI 软件的工作模式设置为严格模式,当出现执行失败的命令时将停止安装进程
- 2、宽容模式:将 Term-SD 安装 AI 软件的工作模式设置为严格模式,当出现执行失败的命令时将跳过执行失败的命令,而不终止安装进程
Note
1、Term-SD在恢复原来的安装进度时,依然会遍历所有安装需要的命令,但是已经执行成功后的命令并不会执行
2、严格模式这个模式主要用于防止意外结果发生的,比如框架没有能够成功下载下来,之后 Term-SD 执行其他的命令时,就有可能导致其他文件散落在安装目录中(不会清理电脑垃圾的遇到这种问题还是很头疼的)
3、严格模式搭配上 Term-SD 的伪断点恢复功能(只为 AI 软件的安装设计了这个功能),可以在安装中断后重新恢复安装进度
该功能用于增加 Term-SD 在使用 Aria2 下载模型时的线程数,在一定程度上提高下载速度
Note
Term-SD 在安装成功后默认启用并设置为 16
该功能将会把 AI 软件产生的缓存重定向至 Term-SD 目录中,位于 cache 文件夹,不过有些 AI 软件会把模型下载到缓存目录中,存在于unet文件夹和huggingface文件夹中,在清理缓存中需要注意
Note
该设置默认启用,为了方便清理 AI 软件产生的缓存
该功能用于设置 CUDA 分配显存使用的分配器,当 CUDA 版本大于 11.4+ 且 PyTorch 版本大于 2.0.0 时,可以设置为CUDA(11.4+) 内置异步分配器,加速 AI 软件的运行,否则设置为PyTorch 原生分配器或者不设置
设置有以下选项
- 1、PyTorch 原生分配器:将 CUDA 内存分配器设置为 PyTorch 原生分配器
- 2、CUDA (11.4+) 内置异步分配器:将 CUDA 内存分配器设置为 CUDA 内置异步分配器,加速 AI 软件的运行
- 3、清除设置:清除 CUDA 内存分配设置
Note
该功能仅限在 Nvidia 显卡上使用
该功能用于设置运行环境检测设置, 运行环境检查包括以下几个:
- Numpy 版本检测
- 依赖完整性检测
- 冲突组件检测
- PyTorch libomp 问题检测
- onnxruntime-gpu 版本检测
这些检测将找出运行环境中出现的问题并修复。如果是冲突组件检测发现环境中出现有冲突的组件,可选择忽略冲突并继续启动,或者按照顺序安装起冲突的组件依赖。如果需要彻底解决该问题,可尝试将起冲突的自定义节点禁用(如起冲突的依赖版本用了==进行标记的,类似的有transformers==4.26.1,需要这样的依赖的自定义节点可考虑禁用)
Note
注意, 禁用后可能会导致 Term-SD 无法发现并修复运行环境中存在的问题, 导致部分功能不可用
该功能用于自定义 AI 软件的安装路径,当保持默认时, AI 软件的安装路径与 Term-SD 所在路径同级
- 1、Stable Diffusion WebUI 安装路径设置:修改 Stable Diffusion WebUI 的安装路径
- 2、ComfyUI 安装路径设置:修改 ComfyUI 的安装路径
- 3、InvokeAI 安装路径设置:修改 InvokeAI 的安装路径
- 4、Fooocus 安装路径设置:修改 Fooocus 的安装路径
- 5、lora-scripts 安装路径设置:修改 lora-scripts 的安装路径
- 6、kohya_ss 安装路径设置:修改 kohya_ss 的安装路径
当选择其中一项子设置时,即可修改该设置对应的 AI 软件的安装路径
子设置中有以下选项
- (1) 设置安装路径:自定义 AI 软件的安装路径
- (2) 恢复默认安装路径设置:恢复 AI 软件默认的安装路径,默认安装路径和 Term-SD 所在路径同级
Note
路径最好使用绝对路径(目前没有见过哪个软件使用相对路径来安装软件的)
该功能用于统计各个 AI 软件的空间占用和 Term-SD 重定向的缓存占用情况
Note
统计占用的时间可能会很长
测试网络环境,用于测试代理是否可用。该功能将会测试网络连接是否正常,并测试 Google,HuggingFace,Github,Ghproxy 等能否访问。在安装时出现的代理设置中,有的 Github 镜像源可能无法访问,可以通过该功能查看哪些镜像源可用
卸载 Term-SD 本体程序,保留已下载的 AI 软件
Note
Term-SD 的扩展脚本file-backup备份的文件保存在 Term-SD 目录中的backup文件夹中。如需要保留,请在卸载 Term-SD 前将其移至其它路径中
Term-SD 包含了一些扩展脚本,扩充 Term-SD 的功能
- 1、download-hanamizuki:下载绘世启动器,并自动放入绘世启动器支持的 AI 软件的目录中
- 2、list:列出可用的扩展脚本
- 3、download-model:使用 Term-SD 的模型库下载模型
- 4、download-sd-webui-extension:下载 Stable Diffusion WebUI 插件(脚本包含的插件列表在 Term-SD 的帮助中有说明)
- 5、download-comfyui-extension:下载 ComfyUI 插件 / 自定义节点(脚本包含的插件 / 自定义节点列表在 Term-SD 的帮助中有说明)
- 6、download-invokeai-extension:下载 InvokeAI 自定义节点(脚本包含的插件列表在 Term-SD 的帮助中有说明)
- 7、file-backup:备份 / 恢复 AI 软件的数据,备份文件储存在 Term-SD 的
backup文件夹中 - 8、clean-cache:使用
git gc清理和优化.git文件夹,减小.git文件夹占用,并使用python -m pip cache purge清理 Pip 产生的缓存
Note
如果需要使用扩展脚本,则在启动 Term-SD 前加入--extra启动参数,或者--extra <script_name>即可使用扩展脚本
在使用命令 Term-SD 时,可以添加启动参数来使用 Term-SD 额外的功能
./term-sd.sh [--help] [--extra script_name] [--reinstall-term-sd] [--remove-term-sd] [--quick-cmd] [--set-python-path python_path] [--unset-python-path] [--update-pip] [--bar display_mode] [--debug]
Note
中括号[]仅用来展示,在使用的时候不要输入进去
当使用--quick-cmd安装了快捷命令,可将./term-sd.sh替换成term_sd或者tsd
- 1、help
显示启动参数帮助
- 2、extra
启动扩展脚本显示界面,选中其中一个启动脚本后即可启动,如果参数后面输入扩展脚本的名字,则直接启动指定的扩展脚本
- 3、reinstall-term-sd
重新安装 Term-SD。Term-SD 会提示用户如何重新安装,根据提示操作即可
- 4、remove-term-sd
卸载 Term-SD,该功能将会删除 Term-SD 自身的所有组件和快捷启动命令,只保留已经安装的AI软件
- 5、quick-cmd
将 Term-SD 快捷启动指令安装到 Shell中,在 Shell 中直接输入term_sd或者tsd即可启动 Term-SD,且不需要在 Term-SD 所在目录就能启动 Term-SD(用./term-sd.sh命令启动还是需要在 Term-SD 所在目录里才能用)。该功能会提示用户选择安装快捷启动命令还是删除快捷启动命令,根据提示进行操作
- 6、set-python-path
手动指定 Python 解释器路径(一定是绝对路径),当选项后面输入了路径,则直接使用输入的路径来设置 Python 路径(建议用" "把路径括起来),否则启动设置界面
路径的参考格式如下:
/usr/bin/python
/c/Python/python
C:\Program Files\Python310\python.exe
/d/Program Files/Python310/python.exe
/usr/bin/python3
Note
根据自己安装的路径来填。
- 7、unset-python-path
删除自定义 Python 解释器路径配置
- 8、bar
设置 Term-SD 初始化进度条显示模式,有以下几种:
(1)none:禁用进度条显示
(2)normal:使用默认的显示模式
(3)new:使用新的进度条显示
- 12、update-pip
进入虚拟环境时更新 Python 软件包管理
- 13、debug
显示调试信息
- 14、unset-tcmalloc
禁用加载内存优化
在 Linux 系统中可以安装 GPerfTools,使用该工具提供的 TCmalloc 来优化内存的占用,不同 Linux 发行版的安装方式如下。
- Debian(Ubuntu系)系:
sudo apt install google-perftools- ArchLinux 系:
sudo pacman -S gperftools- OpenSUSE:
sudo zypper install gperftools- NixOS:
nix-env -i gperftools目前绘世启动器支持启动 Stable Diffusion WebUI(A1111-SD-WebUI / vlad-SD.NEXT / SD-WebUI-AMDGPU / SD-WebUI-Forge)、ComfyUI、Fooocus、lora-scripts。使用 Term-SD 部署 Stable Diffusion WebUI、ComfyUI、或者 Fooocus 后,将绘世启动器放入 Stable Diffusion WebUI 文件夹、ComfyUI 文件夹或者 Fooocus 文件夹后就可以使用绘世启动器启动对应的 AI 软件了
可以使用 Term-SD 扩展脚本中的 download-hanamizuki 脚本来下载绘世启动器,并且脚本会自动将绘世启动器放入上述文件夹中
打开绘世启动器时,如果检测到缺少 .NET 运行库,绘世启动器会弹窗提示缺少依赖,根据提示去下载并安装 .NET 运行时即可
如果遇到绘世启动器打不开,生成锁文件,可尝试更新 Intel 核显驱动,或者将绘世启动器的文件名中的中文删去
| 绘世启动器 | |
|---|---|
| ↓ | 下载地址1 |
| ↓ | 下载地址2 |