准备

模型的参数量和计算量参考:ThanatosShinji/onnx-tool: ONNX model’s shape inference and MACs(FLOPs) counting. (github.com)这四个模型就是Stable Diffusion 1.4 最主要的4个onnx模型:

github中的百度网盘可以下载带中间tensor shape的模型. 比如:

TextEncoder

这个模型很像BERT, 12 layers的Bert Base. 运算量6.7GMACs.

和 BertBase一样, 运算量98%都集中在MatMul上面.

这个token生成了1x77x768的hidden state需要送给UNetCondition.

UNet2DCondition

这个就是UNet+Transformer. 是整个StableDiffusion中主要负责图像生成的部分, 参数量高达859M, 模型文件超过3G. 可以理解这个模型参数记住了很多的图像纹理信息,能够根据输入的文字描述动态去调整图像的各个部分的纹理.

模型输入的分辨率是64×64, 按照UNet的方式用stride==2的conv2d来进行2倍下采样到32×32, 16×16, 8×8:

不同于UNet的持续做卷积, 它用下面的结构把hw转成矩阵结构, 拿去做MHA(multi-head attention):

输入从2x640x32x32(UNet的常见结构) reshape到 2x1024x640(BERT的常见结构.

之后就拿这个BERT-like的tensor去做transformer encoder:

它这里把QKV的MatMul改成了Einsum.

所以UNet2DCondition就是把UNet降采样后的CNN结构部分替换成了Transformer结构.

总的来说: 卷积占总运算量的49%, 矩阵计算占31%(加上Einsum 总共45%)

VAE Encoder+Decoder

这两个模型是成对使用的所以放在一起. 这两个也是比较妙都是CV+transformer的结构.

Encoder把输入tensor从3x512x512通过CNN下采样到512x64x64, 马上又做了一次MHA:

做了后又经过几层卷积输出8x64x64的压缩特征.

Decoder拿到4x64x64的压缩特征后, 先卷积到512x64x64, 然后又是一个transformer MHA结构:

在这个MHA之后又通过Conv+Resize把tensor 还原到3x512x512.

大概就是这样的:

Encoder:

Conv3x512x512

….

Conv512x64x64

MHA 4096×512

Conv 8x64x64

Decoder:

Conv4x64x64

Conv512x64x64

MHA4096x512

….

Conv3x512x512

其中这两个运算量是最大的因为最大分辨率512×512的处理都在这里. Encoder: 566G MACsDecoder: 1271G MACs. Conv分别占了95%和97%的运算量. Transformer的MatMul基本可以忽略不记.

总结

transformer真是个提供模型解释性的好结构.

建议不要考虑增大模型的64×64的分辨率来增加生成的图像分辨率. 分辨率对模型整体运算量的影响系数很高. 可以考虑输出更低的分辨率, 比如32×32输出到256×256, 再用别的超分辨率网络来增加输出分辨率.

运算量的分析报告, 可以自己用命令行生成csv文件:

 python -m onnx_tool -i .\vae_encoder.onnx -f vae_encoder.csv