NeurIPS2023,这是一种用于 3D 人体生成的体积基元扩散模型,可通过离体拓扑实现明确的姿势、视图和形状控制。
PrimDiffusion对一组紧凑地代表 3D 人体的基元执行扩散和去噪过程。这种生成建模可以实现明确的姿势、视图和形状控制,并能够在明确定义的深度中对离体拓扑进行建模。此外,他们的方法可以推广到新的姿势,无需后处理,并支持下游以人为中心的任务,如 3D 纹理传输。
将 3D 人体表示为从多视图图像中学习到的 K 个基元。每个基元 V k 具有独立的运动学参数{T k、 R k、 s k}(平移、旋转和预运动)轴比例)和辐射参数{c k, σ k}(颜色和密度)。对于每个时间步 t,他们使用根据固定噪声时间表采样的噪声 ϵ 来扩散基元 V 0。得到的 V t 被馈送到 g Φ (·),它学习预测去噪体积基元。