Upload lora-scripts/sd-scripts/docs/train_db_README-zh.md with huggingface_hub
Browse files
lora-scripts/sd-scripts/docs/train_db_README-zh.md
ADDED
|
@@ -0,0 +1,162 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
这是DreamBooth的指南。
|
| 2 |
+
|
| 3 |
+
请同时查看[关于学习的通用文档](./train_README-zh.md)。
|
| 4 |
+
|
| 5 |
+
# 概要
|
| 6 |
+
|
| 7 |
+
DreamBooth是一种将特定主题添加到图像生成模型中进行学习,并使用特定识别子生成它的技术。论文链接。
|
| 8 |
+
|
| 9 |
+
具体来说,它可以将角色和绘画风格等添加到Stable Diffusion模型中进行学习,并使用特定的单词(例如`shs`)来调用(呈现在生成的图像中)。
|
| 10 |
+
|
| 11 |
+
脚本基于Diffusers的DreamBooth,但添加了以下功能(一些功能已在原始脚本中得到支持)。
|
| 12 |
+
|
| 13 |
+
脚本的主要功能如下:
|
| 14 |
+
|
| 15 |
+
- 使用8位Adam优化器和潜在变量的缓存来节省内存(与Shivam Shrirao版相似)。
|
| 16 |
+
- 使用xformers来节省内存。
|
| 17 |
+
- 不仅支持512x512,还支持任意尺寸的训练。
|
| 18 |
+
- 通过数据增强来提高质量。
|
| 19 |
+
- 支持DreamBooth和Text Encoder + U-Net的微调。
|
| 20 |
+
- 支持以Stable Diffusion格式读写模型。
|
| 21 |
+
- 支持Aspect Ratio Bucketing。
|
| 22 |
+
- 支持Stable Diffusion v2.0。
|
| 23 |
+
|
| 24 |
+
# 训练步骤
|
| 25 |
+
|
| 26 |
+
请先参阅此存储库的README以进行环境设置。
|
| 27 |
+
|
| 28 |
+
## 准备数据
|
| 29 |
+
|
| 30 |
+
请参阅[有关准备训练数据的说明](./train_README-zh.md)。
|
| 31 |
+
|
| 32 |
+
## 运行训练
|
| 33 |
+
|
| 34 |
+
运行脚本。以下是最大程度地节省内存的命令(实际上,这将在一行中输入)。请根据需要修改每行。它似乎需要约12GB的VRAM才能运行。
|
| 35 |
+
```
|
| 36 |
+
accelerate launch --num_cpu_threads_per_process 1 train_db.py
|
| 37 |
+
--pretrained_model_name_or_path=<.ckpt或.safetensord或Diffusers版模型的目录>
|
| 38 |
+
--dataset_config=<数据准备时创建的.toml文件>
|
| 39 |
+
--output_dir=<训练模型的输出目录>
|
| 40 |
+
--output_name=<训练模型输出时的文件名>
|
| 41 |
+
--save_model_as=safetensors
|
| 42 |
+
--prior_loss_weight=1.0
|
| 43 |
+
--max_train_steps=1600
|
| 44 |
+
--learning_rate=1e-6
|
| 45 |
+
--optimizer_type="AdamW8bit"
|
| 46 |
+
--xformers
|
| 47 |
+
--mixed_precision="fp16"
|
| 48 |
+
--cache_latents
|
| 49 |
+
--gradient_checkpointing
|
| 50 |
+
```
|
| 51 |
+
`num_cpu_threads_per_process` 通常应该设置为1。
|
| 52 |
+
|
| 53 |
+
`pretrained_model_name_or_path` 指定要进行追加训练的基础模型。可以指定 Stable Diffusion 的 checkpoint 文件(.ckpt 或 .safetensors)、Diffusers 的本地模型目录或模型 ID(如 "stabilityai/stable-diffusion-2")。
|
| 54 |
+
|
| 55 |
+
`output_dir` 指定保存训练后模型的文件夹。在 `output_name` 中指定模型文件名,不包括扩展名。使用 `save_model_as` 指定以 safetensors 格式保存。
|
| 56 |
+
|
| 57 |
+
在 `dataset_config` 中指定 `.toml` 文件。初始批处理大小应为 `1`,以减少内存消耗。
|
| 58 |
+
|
| 59 |
+
`prior_loss_weight` 是正则化图像损失的权重。通常设为1.0。
|
| 60 |
+
|
| 61 |
+
将要训练的步数 `max_train_steps` 设置为1600。在这里,学习率 `learning_rate` 被设置为1e-6。
|
| 62 |
+
|
| 63 |
+
为了节省内存,设置 `mixed_precision="fp16"`(在 RTX30 系列及更高版本中也可以设置为 `bf16`)。同时指定 `gradient_checkpointing`。
|
| 64 |
+
|
| 65 |
+
为了使用内存消耗较少的 8bit AdamW 优化器(将模型优化为适合于训练数据的状态),指定 `optimizer_type="AdamW8bit"`。
|
| 66 |
+
|
| 67 |
+
指定 `xformers` 选项,并使用 xformers 的 CrossAttention。如果未安装 xformers 或出现错误(具体情况取决于环境,例如使用 `mixed_precision="no"`),则可以指定 `mem_eff_attn` 选项以使用省内存版的 CrossAttention(速度会变慢)。
|
| 68 |
+
|
| 69 |
+
为了节省内存,指定 `cache_latents` 选项以缓存 VAE 的输出。
|
| 70 |
+
|
| 71 |
+
如果有足够的内存,请编辑 `.toml` 文件将批处理大小增加到大约 `4`(可能会提高速度和精度)。此外,取消 `cache_latents` 选项可以进行数据增强。
|
| 72 |
+
|
| 73 |
+
### 常用选项
|
| 74 |
+
|
| 75 |
+
对于以下情况,请参阅“常用选项”部分。
|
| 76 |
+
|
| 77 |
+
- 学习 Stable Diffusion 2.x 或其衍生模型。
|
| 78 |
+
- 学习基于 clip skip 大于等于2的模型。
|
| 79 |
+
- 学习超过75个令牌的标题。
|
| 80 |
+
|
| 81 |
+
### 关于DreamBooth中的步数
|
| 82 |
+
|
| 83 |
+
为了实现省内存化,该脚本中每个步骤的学习次数减半(因为学习和正则化的图像在训练时被分为不同的批次)。
|
| 84 |
+
|
| 85 |
+
要进行与原始Diffusers版或XavierXiao的Stable Diffusion版几乎相同的学习,请将步骤数加倍。
|
| 86 |
+
|
| 87 |
+
(虽然在将学习图像和正则化图像整合后再打乱顺序,但我认为对学习没有太大影响。)
|
| 88 |
+
|
| 89 |
+
关于DreamBooth的批量大小
|
| 90 |
+
|
| 91 |
+
与像LoRA这样的学习相比,为了训练整个模型,内存消耗量会更大(与微调相同)。
|
| 92 |
+
|
| 93 |
+
关于学习率
|
| 94 |
+
|
| 95 |
+
在Diffusers版中,学习率为5e-6,而在Stable Diffusion版中为1e-6,因此在上面的示例中指定了1e-6。
|
| 96 |
+
|
| 97 |
+
当使用旧格式的数据集指定命令行时
|
| 98 |
+
|
| 99 |
+
使用选项指定分辨率和批量大小。命令行示例如下。
|
| 100 |
+
```
|
| 101 |
+
accelerate launch --num_cpu_threads_per_process 1 train_db.py
|
| 102 |
+
--pretrained_model_name_or_path=<.ckpt或.safetensord或Diffusers版模型的目录>
|
| 103 |
+
--train_data_dir=<训练数据的目录>
|
| 104 |
+
--reg_data_dir=<正则化图像的目录>
|
| 105 |
+
--output_dir=<训练后模型的输出目录>
|
| 106 |
+
--output_name=<训练后模型输出文件的名称>
|
| 107 |
+
--prior_loss_weight=1.0
|
| 108 |
+
--resolution=512
|
| 109 |
+
--train_batch_size=1
|
| 110 |
+
--learning_rate=1e-6
|
| 111 |
+
--max_train_steps=1600
|
| 112 |
+
--use_8bit_adam
|
| 113 |
+
--xformers
|
| 114 |
+
--mixed_precision="bf16"
|
| 115 |
+
--cache_latents
|
| 116 |
+
--gradient_checkpointing
|
| 117 |
+
```
|
| 118 |
+
|
| 119 |
+
## 使用训练好的模型生成图像
|
| 120 |
+
|
| 121 |
+
训练完成后,将在指定的文件夹中以指定的名称输出safetensors文件。
|
| 122 |
+
|
| 123 |
+
对于v1.4/1.5和其他派生模型,可以在此模型中使用Automatic1111先生的WebUI进行推断。请将其放置在models\Stable-diffusion文件夹中。
|
| 124 |
+
|
| 125 |
+
对于使用v2.x模型在WebUI中生成图像的情况,需要单独的.yaml文件来描述模型的规格。对于v2.x base,需要v2-inference.yaml,对于768/v,则需要v2-inference-v.yaml。请将它们放置在相同的文件夹中,并将文件扩展名之前的部分命名为与模型相同的名称。
|
| 126 |
+

|
| 127 |
+
|
| 128 |
+
每个yaml文件都在[Stability AI的SD2.0存储库](https://github.com/Stability-AI/stablediffusion/tree/main/configs/stable-diffusion)……之中。
|
| 129 |
+
|
| 130 |
+
# DreamBooth的其他主要选项
|
| 131 |
+
|
| 132 |
+
有关所有选项的详细信息,请参阅另一份文档。
|
| 133 |
+
|
| 134 |
+
## 不在中途开始对文本编码器进行训练 --stop_text_encoder_training
|
| 135 |
+
|
| 136 |
+
如果在stop_text_encoder_training选项中指定一个数字,则在该步骤之后,将不再对文本编码器进行训练,只会对U-Net进行训练。在某些情况下,可能会期望提高精度。
|
| 137 |
+
|
| 138 |
+
(我们推测可能会有时候仅仅文本编码器会过度学习,而这样做可以避免这种情况,但详细影响尚不清楚。)
|
| 139 |
+
|
| 140 |
+
## 不进行分词器的填充 --no_token_padding
|
| 141 |
+
|
| 142 |
+
如果指定no_token_padding选项,则不会对分词器的输出进行填充(与Diffusers版本的旧DreamBooth相同)。
|
| 143 |
+
|
| 144 |
+
<!--
|
| 145 |
+
如果使用分桶(bucketing)和数据增强(augmentation),则使用示例如下:
|
| 146 |
+
```
|
| 147 |
+
accelerate launch --num_cpu_threads_per_process 8 train_db.py
|
| 148 |
+
--pretrained_model_name_or_path=<.ckpt或.safetensord或Diffusers版模型的目录>
|
| 149 |
+
--train_data_dir=<训练数据的目录>
|
| 150 |
+
--reg_data_dir=<正则化图像的目录>
|
| 151 |
+
--output_dir=<训练后模型的输出目录>
|
| 152 |
+
--resolution=768,512
|
| 153 |
+
--train_batch_size=20 --learning_rate=5e-6 --max_train_steps=800
|
| 154 |
+
--use_8bit_adam --xformers --mixed_precision="bf16"
|
| 155 |
+
--save_every_n_epochs=1 --save_state --save_precision="bf16"
|
| 156 |
+
--logging_dir=logs
|
| 157 |
+
--enable_bucket --min_bucket_reso=384 --max_bucket_reso=1280
|
| 158 |
+
--color_aug --flip_aug --gradient_checkpointing --seed 42
|
| 159 |
+
```
|
| 160 |
+
|
| 161 |
+
|
| 162 |
+
-->
|