文章目录

      • 1. 去噪扩散概率模型
      • 2. 前向扩散
      • 3. 反向采样
      • 3. 图像条件扩散模型
      • 4. 可以考虑改进的点
      • 5. 实现代码

话不多说,先上代码: 扩散模型diffusion model用于图像恢复完整可运行代码,附详细实验操作流程
令外一篇简化超分扩散模型SR3来实现图像恢复的博客见: 超分扩散模型 SR3 可以做图像去雨、去雾等恢复任务吗?

1. 去噪扩散概率模型

扩散模型是一类生成模型, 和生成对抗网络GAN 、变分自动编码器VAE和标准化流模型NFM等生成网络不同的是, 扩散模型在前向扩散过程中对图像逐步施加噪声, 直至图像被破坏变成完全的高斯噪声, 然后在反向采样过程中学习从高斯噪声还原为真实图像。在模型训练完成后,只需要随机给定一个高斯噪声,就可以生成丰富的真实图像。

2. 前向扩散

前向扩散过程就是向图像不断加高斯噪声,使其逐渐接近一个与输入数据相关的高斯分布。此处将未加噪声的数据记为 x0 x_0x0 x0∼ q ( x0)x_0\sim q(x_0)x0q(x0) q ( x0)q(x_0)q(x0)是为被噪声破坏的原始数据分布,则在 ttt时刻的噪化状态和上一时刻 t − 1t-1t1之间的关系为:
q ( xt∣ x t − 1) = N ( xt;1 − βt ⋅ x t − 1, βt⋅ I ) ,(1) q(x_t|x_{t-1})=\mathcal{N}(x_t; \sqrt{1-\beta_t}\cdot x_{t-1}, \beta_t\cdot\textbf{I}), \tag{1} q(xtxt1)=N(xt;1βt xt1,βtI),(1)其中: t ∈ {0,1,…,T} t\in{\{0, 1, …, T\}}t{0,1,,T} N\mathcal{N}N表示高斯噪声分布, βt \beta_tβt是与时刻t相关的噪声方差调节因子, I\textbf{I}I是一个与初始状态 x0 x_0x0维度相同的单位矩阵。则输入 x0 x_0x0的条件下, x1, x2, . . . , xT x_1, x_2, …, x_Tx1,x2,,xT的联合分布可以表示为:
q ( x1, x2, . . . , xT∣ x0) =∏ t=1Tq( x t∣ x t−1 ) (2) q(x_1, x_2, …, x_T|x_0)=\displaystyle\prod_{t=1}^{T}q(x_t|x_{t-1}) \tag{2} q(x1,x2,,xTx0)=t=1Tq(xtxt1)(2)则根据根据马尔科夫性可以直接得到输入 x0 x_0x0的条件下 ttt时刻的噪化状态为
q ( xt∣ x0) = N ( xt;α‾t⋅ x0, ( 1 −α ‾t) ⋅ I ) ,(3) q(x_t|x_0)=\mathcal{N}(x_t; \sqrt{\overline{\alpha}_t}\cdot x_0, (1-\overline{\alpha}_t)\cdot\textbf{I}), \tag{3} q(xtx0)=N(xt;αt x0,(1αt)I),(3)其中: αt: = 1 − βt \alpha_t:=1-\beta_tαt:=1βt, α ‾t: = ∏ s = 0tαs \overline{\alpha}_t:=\prod_{s=0}^{t}\alpha_sαt:=s=0tαs。根据公式 ( 1 )(1)(1)可以得到 ttt时刻的噪化状态 xt x_txt t − 1t-1t1时刻的噪化状态 x t − 1 x_{t-1}xt1的关系为:
xt=α t⋅ x t − 1+1 − αt ⋅ ϵ t − 1,(4) x_t=\sqrt{\alpha_t}\cdot x_{t-1}+\sqrt{1-\alpha_t}\cdot\epsilon_{t-1}, \tag{4} xt=αt xt1+1αt ϵt1,(4)其中: ϵ t − 1∼ N ( 0 , I )\epsilon_{t-1}\sim\mathcal{N}(\textbf{0}, \textbf{I})ϵt1N(0,I),通过不断取代递推可以得到 ttt时刻的噪化状态 xt x_txt与输入 x0 x_0x0之间的关系为:
x t =α t⋅ x t − 1+1 − αt ⋅ ϵ t − 1=αtα t − 1 ⋅ x t − 2+1 − αtα t − 1 ⋅ϵ ‾ t − 2=αtα t − 1α t − 2 ⋅ x t − 3+1 − αtα t − 1α t − 2 ⋅ϵ ‾ t − 3… =α‾t⋅ x0+1 −α ‾t ⋅ ϵ(5) \begin{equation*} \begin{aligned} x_t & = \sqrt{\alpha_t}\cdot x_{t-1}+\sqrt{1-\alpha_t}\cdot\epsilon_{t-1} \\ ~ & = \sqrt{\alpha_t\alpha_{t-1}}\cdot x_{t-2}+\sqrt{1-\alpha_t\alpha_{t-1}}\cdot\overline{\epsilon}_{t-2} \\ ~ & = \sqrt{\alpha_t\alpha_{t-1}\alpha_{t-2}}\cdot x_{t-3}+\sqrt{1-\alpha_t\alpha_{t-1}\alpha_{t-2}}\cdot\overline{\epsilon}_{t-3} \\ ~ & \dots \\ ~ & = \sqrt{\overline{\alpha}_t}\cdot x_0+\sqrt{1-\overline{\alpha}_t}\cdot\epsilon \\ \end{aligned} \end{equation*} \tag{5} xt=αt xt1+1αt ϵt1=αtαt1 xt2+1αtαt1 ϵt2=αtαt1αt2 xt3+1αtαt1αt2 ϵt3=αt x0+1αt ϵ(5)其中: ϵ ∼ N ( 0 , I )\epsilon\sim\mathcal{N}(\textbf{0}, \textbf{I})ϵN(0,I)ϵ ‾ t − 2 \overline{\epsilon}_{t-2}ϵt2是两个高斯分布相加后的分布。第一步到第二步的公式推导需要说明一下,根据高斯噪声的特点,对于两个方差不同的高斯分布 N ( 0 , σ12⋅ I )\mathcal{N}(\textbf{0}, \sigma_1^2\cdot\textbf{I})N(0,σ12I) N ( 0 , σ22⋅ I )\mathcal{N}(\textbf{0}, \sigma_2^2\cdot\textbf{I})N(0,σ22I),其相加后的高斯分布为 N ( 0 , ( σ12+ σ22) ⋅ I )\mathcal{N}(\textbf{0}, (\sigma_1^2+\sigma_2^2)\cdot\textbf{I})N(0,(σ12+σ22)I),表现在公式中,即:
x t =α t⋅ x t − 1+1 − αt ⋅ ϵ t − 1=α t⋅ (α t−1 ⋅ x t − 2+1 − α t − 1 ⋅ ϵ t − 2) +1 − αt ⋅ ϵ t − 1=αtα t − 1 ⋅ x t − 2+αt( 1 − α t − 1)⋅ ϵ t − 2+1 − αt ⋅ ϵ t − 1=αtα t − 1 ⋅ x t − 2+1 − αtα t − 1 ⋅ϵ ‾ t − 2 (6) \begin{equation} \begin{aligned} x_t & = \sqrt{\alpha_t}\cdot x_{t-1}+\sqrt{1-\alpha_t}\cdot\epsilon_{t-1} \\ ~ & = \sqrt{\alpha_t}\cdot( \sqrt{\alpha_{t-1}}\cdot x_{t-2}+\sqrt{1-\alpha_{t-1}}\cdot\epsilon_{t-2})+\sqrt{1-\alpha_t}\cdot\epsilon_{t-1} \\ ~ & = \sqrt{\alpha_t\alpha_{t-1}}\cdot x_{t-2}+ \sqrt{\alpha_t(1-\alpha_{t-1})}\cdot\epsilon_{t-2}+\sqrt{1-\alpha_t}\cdot\epsilon_{t-1} \\ ~ & = \sqrt{\alpha_t\alpha_{t-1}}\cdot x_{t-2}+\sqrt{1-\alpha_t\alpha_{t-1}}\cdot\overline{\epsilon}_{t-2} \end{aligned} \end{equation} \tag{6} xt=αt xt1+1αt ϵt1=αt (αt1 xt2+1αt1 ϵt2)+1αt ϵt1=αtαt1 xt2+αt(1αt1) ϵt2+1αt ϵt1=αtαt1 xt2+1αtαt1 ϵt2(6)其中:两个高斯分布相加后的标准差为:
αt( 1 − α t − 1) + ( 1 − αt)=1 − αtα t − 1 ,(7) \sqrt{\alpha_t(1-\alpha_{t-1})+(1-\alpha_t)}=\sqrt{1-\alpha_t\alpha_{t-1}}, \tag{7} αt(1αt1)+(1αt) =1αtαt1 ,(7)依此得到第二步,进而逐渐递推到最后一步。公式 ( 3 )(3)(3)和公式 ( 5 )(5)(5)的目的就是表明在前向扩散过程中,由于每步加的噪声均是同分布的高斯噪声,因此不需要逐步进行加噪,直接就可以由输入 x0 x_0x0的到 TTT时刻的噪化状态 xT x_TxT。当α ‾T≈ 0\overline{\alpha}_T\approx0αT0 TTT时刻的分布 xt x_txt则几乎就是一个高斯分布,据此其可以定义为:
q ( xT) : = ∫ q ( xT∣ x0) q ( x0) d x0≈ N ( xT; 0 , I ) ,(5) q(x_T):=\int q(x_T|x_0)q(x_0)dx_0\approx\mathcal{N}(x_T; \textbf{0}, \textbf{I}), \tag{5} q(xT):=q(xTx0)q(x0)dx0N(xT;0,I),(5)其中: ∫\int表示积分,最终的噪化状态 xT x_TxT也可以在图像上看出其分布特点。

3. 反向采样

反向采样过程就是根据已有的噪化状态通过学习来估计噪声分布,进一步获得上一时刻的状态,并逐渐从高斯分布中构造出真实数据。根据前向扩散过程的结果,可以认为 TTT时刻噪化状态 xT x_TxT的后验分布 p ( xt) ∼ N ( xt; 0 , I )p(x_t)\sim\mathcal{N}(x_t; \textbf{0}, \textbf{I})p(xt)N(xt;0,I),则联和分布 pθ( x0, x1, . . . , xT)p_{\theta}(x_0, x_1, …, x_T)pθ(x0,x1,,xT)也是一个马尔科夫链,其被定义为:
pθ( x0, x1, . . . , xT) : = p ( xT)∏ t=1T p θ( x t−1 ∣ x t), (6) p_{\theta}(x_0, x_1, …, x_T):=p(x_T)\displaystyle\prod_{t=1}^{T}p_{\theta}(x_{t-1}|x_t), \tag{6} pθ(x0,x1,,xT):=p(xT)t=1Tpθ(xt1xt),(6) t − 1t-1t1时刻的噪状态 x t − 1 x_{t-1}xt1可以由上一时刻 ttt的状态 xt x_txt得到,其条件分布可以表示为:
pθ( x t − 1∣ xt) = N ( x t − 1; μθ( xt, t ) ,∑θ( xt, t ) ) ,(7) p_{\theta}(x_{t-1}|x_t)=\mathcal{N}(x_{t-1}; \mu_{\theta}(x_t, t), {\tiny{\sum}}_{\theta}(x_t, t)), \tag{7} pθ(xt1xt)=N(xt1;μθ(xt,t),θ(xt,t)),(7)其中: μθ( xt, t )\mu_\theta(x_t, t)μθ(xt,t)∑θ( xt, t ) ){\tiny{\sum}}_{\theta}(x_t, t))θ(xt,t))分别为 ttt时刻由噪声估计网络得到的噪声均值和方差, θ\thetaθ为噪声估计网络的参数。此时,在输入为 x0 x_0x0时, t − 1t-1t1时刻的噪状态 x t − 1 x_{t-1}xt1与上一时刻 ttt的状态 xt x_txt之间的真实条件分布为:
q ( x t − 1∣ xt, x0) = N ( x t − 1;μ ~t( xt, x0) ,β ~t⋅ I ) ,(8) q(x_{t-1}|x_t, x_0)=\mathcal{N}(x_{t-1}; \tilde{\mu}_{t}(x_t, x_0), \tilde{\beta}_t\cdot\textbf{I}), \tag{8} q(xt1xt,x0)=N(xt1;μ~t(xt,x0),β~tI),(8)其中:噪声后验分布参数μ ~t \widetilde{\mu}_tμ t, β ~t \tilde{\beta}_tβ~t分别为:
μ ~t= 1 αt ( xt−β t 1− α‾t ⋅ ϵt) ,β ~t=1 −α ‾ t − 11 −α ‾t ⋅ βt,(9) \tilde{\mu}_t=\frac{1}{\sqrt{\alpha_t}}(x_t-\frac{\beta_t}{\sqrt{1-\overline{\alpha}_t}}\cdot\epsilon_t), \tilde{\beta}_t=\frac{1-\overline{\alpha}_{t-1}}{1-\overline{\alpha}_t}\cdot\beta_t, \tag{9} μ~t=αt 1(xt1αt βtϵt),β~t=1αt1αt1βt,(9)此处认为∑θ( xt, t ) = σt2⋅ I{\small{\sum}}_\theta(x_t, t)=\sigma_t^2\cdot\textbf{I}θ(xt,t)=σt2I,即 σt2=β ~t \sigma_t^2=\tilde{\beta}_tσt2=β~t,则预测的后验条件分布变为:
pθ( x t − 01∣ xt) = N ( x t − 1; μθ( xt, t ) , σt2⋅ I ) , ,(10) p_{\theta}(x_{t-01}|x_t)=\mathcal{N}(x_{t-1}; \mu_\theta(x_t, t), \sigma_t^2\cdot\textbf{I}), \tag{10}, pθ(xt01xt)=N(xt1;μθ(xt,t),σt2I),,(10)即利用噪声估计网络 μθ \mu_\thetaμθ来估计真实噪声分布均值μ ~t \tilde{\mu}_tμ~t,则公式 ( 9 )(9)(9)中的噪声分布均值可以被估计为:
μθ( xt, t ) = 1 αt ( xt−β t 1− α‾t ⋅ ϵθ( xt, t ) ) ,(11) \mu_\theta(x_t, t)=\frac{1}{\sqrt{\alpha_t}}(x_t-\frac{\beta_t}{\sqrt{1-\overline{\alpha}_t}}\cdot\epsilon_\theta(x_t, t)), \tag{11} μθ(xt,t)=αt 1(xt1αt βtϵθ(xt,t)),(11)而根据公式已知 ttt时刻的噪化状态 xt x_txt满足 xt=α‾t⋅ x0+1 −α ‾t ⋅ ϵx_t=\sqrt{\overline{\alpha}_t}\cdot x_0+\sqrt{1-\overline{\alpha}_t}\cdot\epsilonxt=αt x0+1αt ϵ,则网络学习的优化目标就是让估计出的噪声分布接近真实的噪声分布,即:
E x0, t , ϵt∼ N ( 0 , I )[ ∣ ∣ ϵt− ϵθ(α‾ t⋅ x0+1 −α ‾t ⋅ ϵ , t ) ∣ ∣2] ,(12) \mathbb{E}_{x_0, t, \epsilon_t\sim\mathcal{N}(0, \textbf{I})}[||\epsilon_t-\epsilon_\theta(\sqrt{\overline\alpha}_t\cdot x_0+\sqrt{1-\overline{\alpha}_t}\cdot\epsilon, t)||^2], \tag{12} Ex0,t,ϵtN(0,I)[∣∣ϵtϵθ(α tx0+1αt ϵ,t)2],(12) t − 1t-1t1时刻的噪化状态 x t − 1 x_{t-1}xt1可以表示为 (这块尚没搞清楚这个公式的由来,似乎与原论文中的公式不一样):
x t − 1=α‾t−1 (xt−1 −α ‾t ⋅ ϵθ( xt, t )α ‾t ) +1 −α ‾ t − 1 ⋅ ϵθ( xt, t ) ,(13) x_{t-1}=\sqrt{\overline\alpha_{t-1}}(\frac{x_t-\sqrt{1-\overline{\alpha}_t}\cdot\epsilon_\theta(x_t, t)}{\sqrt{\overline{\alpha}_t}})+\sqrt{1-\overline{\alpha}_{t-1}}\cdot\epsilon_\theta(x_t, t), \tag{13} xt1=αt1 (αt xt1αt ϵθ(xt,t))+1αt1 ϵθ(xt,t),(13)其中: z ∼ N ( 0 , I )z\sim\mathcal{N}(\textbf{0}, \textbf{I})zN(0,I)。则根据不同时刻噪声估计网络对噪声分布的估计可以依据公式 ( 13 )(13)(13)逐渐反向采样得到真实数据分布。

3. 图像条件扩散模型

在图像恢复任务中,必须使用条件扩散模型才能生成我们预期的恢复图像,实际中即将退化的图像作为条件引入到噪声估计网络中来估计条件噪声分布。如图所示:

图像条件扩散模型与经典扩散模型的前向扩散过程完全一样,区别仅在于反向采样过程中是否引入图像条件。则反向采样过程中 x1, x2, . . . , xT x_1, x_2, …, x_Tx1,x2,,xT的联合分布变为:
pθ( x0, x1, . . . , xT∣ x^) : = p ( xT)∏ t=1T p θ( x t−1 ∣ x t, x ^), (14) p_{\theta}(x_0, x_1, …, x_T|\hat{x}):=p(x_T)\displaystyle\prod_{t=1}^{T}p_{\theta}(x_{t-1}|x_t, \hat{x}), \tag{14} pθ(x0,x1,,xTx^):=p(xT)t=1Tpθ(xt1xt,x^),(14)其中, x^ \hat{x}x^为作为条件输入噪声估计网络的退化图像。此时,噪声分布估计变为:
ϵθ( xt, t ) → ϵθ( xt, x^, t ) ,(15) \epsilon_\theta(x_t, t)\rightarrow\epsilon_\theta(x_t, \hat{x}, t), \tag{15} ϵθ(xt,t)ϵθ(xt,x^,t)(15) t − 1t-1t1时刻的噪化状态 x t − 1 x_{t-1}xt1也由公式 ( 13 )(13)(13)变为:
x t − 1=α‾t−1 (xt−1 −α ‾t ⋅ ϵθ( xt, x^, t )α ‾t ) +1 −α ‾ t − 1 ⋅ ϵθ( xt, x^, t ) ,(16) x_{t-1}=\sqrt{\overline\alpha_{t-1}}(\frac{x_t-\sqrt{1-\overline{\alpha}_t}\cdot\epsilon_\theta(x_t, \hat{x}, t)}{\sqrt{\overline{\alpha}_t}})+\sqrt{1-\overline{\alpha}_{t-1}}\cdot\epsilon_\theta(x_t, \hat{x}, t), \tag{16} xt1=αt1 (αt xt1αt ϵθ(xt,x^,t))+1αt1 ϵθ(xt,x^,t),(16)
实际中,条件的引入由多种方式,最常见的方法是直接通过与噪化状态拼接后作为噪声估计网络的输入。

4. 可以考虑改进的点

以下是我问chatGPT得到的答案:

我的拙见:

  1. 引入天气退化图像恢复中:虽然扩散模型已经出现众多研究,但在图像去雨、去雾、去雨滴、去雪等方面的研究屈指可数;
  2. 改进噪声估计网络:经典的扩散模型是基于U-Net结构的,主要模块也是卷积 (也包括自注意力),近来有一些研究发现Transformer架构在扩散模型上可以取得更好地效果;
  3. Follow最新的更快地扩散模型:传统的扩散模型要进行图像恢复,一幅图片的处理时长基本都是几十秒,实时性太差,目前有一些研究提出快速反向采样的方法;
  4. 无监督:目前多数给予扩散模型的图像恢复算法仍然是有监督的 (当然不算是监督学习,只是条件生成),可以采用一些无监督策略来利用扩散模型实现图像恢复。

5. 实现代码

完整的用于图像恢复的扩散模型代码见:完整可直接运行代码,其中包括详细的实验操作流程,只需要修改数据集路径即可直接使用。