【读论文】Spin-UP

论文地址
代码地址
前期调研 && blender 渲染代码

Overview

1. 这篇文章对标什么方法?

这篇文章提出的方法名为 Spin Light Uncalibrated Photometric Stereo (Spin-UP),它是一种在自然光下进行无校准光度立体摄影的无监督方法。Spin-UP对标的是现有的无校准光度立体摄影方法(NaUPS),特别是那些使用复杂的环境光模型和材料模型的方法

2. 现有方法的缺点是什么?

  • 对光源和材料的强假设:许多现有方法使用简单的光模型和朗伯反射模型,这在处理具有复杂反射特性的物体时效果不佳
  • 数据驱动方法的解释性差:一些基于深度学习的方法虽然在性能上有提升,但由于缺乏解释性,训练时难以约束模型,容易受到数据偏差的影响,导致对特定光源类型或反射变化敏感
  • 处理一般场景能力不足:现有方法在处理自然光下的常见物体时效果有限,且在高分辨率和大量图像时难以处理

3. 这篇文章解决了什么问题?

本文提出的Spin-UP方法旨在解决以下问题:

  • 提供一种新的无监督方法,在自然光下对一般物体进行光度立体摄影,无需依赖数据驱动方法的强假设和训练数据的偏差
  • 通过旋转平台采集图像,减少了光的表示未知数,缓解了NaUPS问题的病态性
  • 引入了可靠的光初始化方法,通过分析物体遮挡边界的像素值,减少了光与物体之间的模糊性

4. 创新点有哪些?

文章的主要创新点包括:

  1. 设计了一种新的NaUPS设置,通过旋转平台在静态环境光下采集图像,减少了光表示的未知数
  2. 提出了一个基于物体遮挡边界的光初始化方法,提高了环境光的初始化质量,减少了训练初期的模糊性
  3. 采用了两种训练策略:间隔采样(Interval Sampling)和缩小范围计算(Shrinking Range Computing),以降低计算成本并加快收敛速度

5. 实验结果如何?

实验结果表明,Spin-UP在综合性能上优于现有的方法:

  • 在合成数据集和真实数据集上,Spin-UP在表面法线重建和环境光重建的误差度量(如平均角度误差(MAE)、PU-PSNR和PU-SSIM)上表现优越
  • 对于未见过的光源,Spin-UP也展示了良好的适应性,特别是在实际应用场景中表现出较高的鲁棒性

6. 模型的输入输出是什么?

模型的输入为在不同旋转角度下采集的物体图像,输出为重建的表面法线图、环境光模型和各向同性反射率

注意:Spin-UP不恢复3D形状,只恢复观察到的表面

7. 模型结构详细介绍及实现全过程

模型结构

  • 形状模型:使用神经深度场(Neural Depth Field)表示3D表面,通过多层感知器(MLP)预测深度值
  • 材料模型:使用修改的Disney模型表示空间变化的各向同性反射率,包含一个预测漫反射率的MLP和一个计算镜面反射率的MLP
  • 阴影模型:应用类似于之前方法的阴影掩码来处理投射阴影

实现全过程

  1. 图像采集:在旋转平台上采集物体的多角度图像
  2. 光初始化:使用边界法线和过滤器对环境光进行初始化,采用预计算的边界法线和相对旋转矩阵,通过拟合光模型参数优化环境光
  3. 训练策略
    • 间隔采样:通过对图像进行间隔采样,降低计算成本并确保训练的有效性
    • 缩小范围计算:通过逐步缩小采样范围,提高法线计算的精度,避免局部最优

Method

3.1. Spin Light Setup 旋转光设置

数据采集设置

  1. 旋转平台和相机

    • 使用可旋转平台和固定相机拍摄物体。
    • 平台进行360度旋转,固定角度间隔捕捉图像。
  2. 图像采集

    • 在旋转过程中捕获多角度的物体图像,形成图像序列 I{Ijj[1,...,NI]}I \equiv \{I_j | j \in [1, ..., N_I]\}
    • 每个图像对应一个旋转角度 θj\theta_j,从而每个图像中光线方向 L(Rjω)L(R_j \cdot \omega) 相关联。

减少未知数

  1. 统一光模型

    • 对所有图像使用统一的环境光模型 LL,减少光表示的未知数。
    • 光模型由参数化的球形高斯函数表示,每张图像只有一个1自由度的旋转角度 θ\theta
  2. 旋转矩阵初始化

    • 根据旋转角度 θj\theta_j 初始化旋转矩阵 Rj=R(θj)R_j = R(\theta_j),其中 θ1=0\theta_1 = 0,其余角度按照均匀分布设置 θj=2π(j1)/NI\theta_j = 2\pi(j - 1)/N_I

3.2. Light Prior from Boundaries 基于边界的光先验

整体流程

  • 边界处理:提取输入图像中的边界像素 mbm_b 和法线 nbn_b
  • 重映射:将边界像素和法线重映射到球面,并根据对应的旋转矩阵 RR 进行旋转。
  • 光探测优化:根据边界像素构成的光探测器优化 SG 光模型,得到优化后的环境光。

光初始化方法

通过优化 SG 光模型参数 Θ\Theta 来导出初始环境光模型。使用64个球形高斯(SG)基函数作为光模型,其中 L(ωξt,λt,μt)=t=1NLG(ω;ξt,λt,μt)L(\omega|\xi_t, \lambda_t, \mu_t) = \sum_{t=1}^{NL} G(\omega; \xi_t, \lambda_t, \mu_t)ξt,λt\xi_t, \lambda_tμt\mu_t 分别表示高斯峰的方向、锐度和幅度。

输入:预计算的边界法线 nbn_b,初始相对旋转矩阵 {R1,...,RNI}\{R_1, ..., R_{NI}\},边界像素 {mb1,...,mbNI}\{m_{b1}, ..., m_{bNI}\},扩散过滤器 FdTH(.)F_d^{TH}(.)FdSH(.)F_d^{SH}(.),色彩过滤器 Fc(.)F_c(.),拟合迭代次数 NN,学习率 η\eta
输出:初始环境光模型 L(.Θ)L(.|\Theta')

  • 步骤
    1. 对每个图像 IjI_j,计算边界法线 ωbj=Rjnb\omega_bj = Rj \cdot nb
    2. 对边界像素 mbm_b 进行扩散过滤和色彩过滤,得到过滤后的像素值 mbd=Fc(FdSH(FdTH(mb)))m_b^d = Fc(Fd_{SH}(Fd_{TH}(m_b)))
    3. 通过最小化 (L(ωbΘ)mbd)2\sum (L(\omega_b|\Theta) - m_b^d)^2 优化 SG 光模型参数 Θ\Theta

通过旋转光设置,可以利用物体边界的先验知识进行光初始化,以减轻模糊性。此方法的核心思想是观察到物体边界的像素值 mbm_b 提供了有关环境光的信息。对于具有遮挡边界的物体,这些边界的法线 nbn_b 可以预先计算出来。结合 mbm_bnbn_bRR 可以粗略地导出一个光图,指示光源的位置和强度,其中 mbm_b 直接表示光在方向 ωb=Rnb\omega_b = R \cdot n_b 上的强度 L(ωb)L(\omega_b)。但是,对于不同材料的物体,导出的光图可能包含不匹配的光源位置和色偏,导致光初始化不准确。

光源位置不匹配

光源位置不匹配是由于 mbm_b 中的镜面反射分量 mbsm_b^s 引起的。当 mbsm_b^s 占主导地位时,用 mbm_b 近似 L(ωb)L(\omega_b) 是一种有偏估计,因为 mbsm_b^s 是在不同方向上光的反射(见图3)。相反,当漫反射分量 mbdm_b^d 占主导地位时,这种近似更为合理,因为 mbd=ΩL(ω)ρd(ωωb)dωm_b^d = \int_{\Omega} L(\omega) \rho_d (\omega \cdot \omega_b) d\omega 表示 L(ωb)L(\omega_b) 对实际像素值的贡献最大,因此使用 mbdm_b^d 表示 L(ωb)L(\omega_b) 偏差较小。因此,为了减少光源位置不匹配的有偏估计,需要对 mbdm_b^d 进行扩散过滤 Fd(.)F_d(.)

色偏

同样,色偏是由于边界处材料的空间变化引起的。为减少色偏,需要进行色彩过滤 Fc(.)F_c(.),将像素值转换为灰度值。

QA

物体边界的像素值 mbm_b 提供环境光信息的原因

  1. 光与边界法线的关系
    在物体边界处,法线 nbn_b 通常与观察方向(摄像机视角)成直角。这意味着入射光 ω\omega 与边界法线之间的夹角可以直接反映在边界像素的亮度和颜色上。因此,边界像素值 mbm_b 可以直接用于估计环境光的方向和强度。

  2. 遮挡效应最小
    在物体的边界处,通常没有其他物体的遮挡,因此边界像素接收到的光线主要是来自环境光,而不是被其他物体反射或阻挡的光线。这使得边界像素的亮度和颜色信息更为纯净和直接。

  3. 反射特性
    在理想情况下,边界法线所代表的点的反射特性较为简单,尤其是在考虑漫反射(diffuse reflection)时,边界像素值主要反映了环境光的分布,而非复杂的多重反射或阴影效应。

为什么选择边界而不选择物体中间的部分?

  1. 复杂光影效果
    物体中间的部分可能受到复杂的光影效果影响,包括自阴影、反射和散射等,这些效果会使得物体中间的像素值难以直接反映环境光的真实情况。

  2. 多重反射和遮挡
    物体中间的像素可能会受到其他物体或自身结构的遮挡和多重反射影响,这会增加光线传播路径的复杂性,导致无法准确分离出环境光的影响。

  3. 计算复杂度
    在物体边界,法线方向简单明确,而在物体中间区域,由于曲面复杂多变,需要更复杂的计算来解耦光线与物体表面的相互作用。因此,选择边界像素可以简化计算过程,提高准确性。

什么叫有遮挡边界的物体?

有遮挡边界的物体是指在图像中存在明显边界的物体,这些边界的法线向量与摄像机视角成直角或接近直角。这些边界可以是物体的轮廓线或边缘,它们是光线无法透过的部分。具体而言:

  1. 几何遮挡
    物体的边界在几何上是光线的终止点,光线到达这里后无法继续传播,因此边界处形成了一个明显的光学和视觉上的分界线。

  2. 法线计算
    在这些边界处,法线向量可以通过几何方法预先计算出来,并且这些法线通常与观察方向成直角,这使得利用这些法线来估计环境光变得更加直接和准确。

  3. 无背景干扰
    边界像素通常不会受到背景的直接干扰,因此其光照信息更纯净,可以更好地反映环境光的实际情况。

B.1. 边界法线计算

在透视投影中,物体的边界法线计算是通过分析物体边界和视线方向之间的关系来完成的。具体来说,我们假设物体的边界在图像中呈现出遮挡效果,并且这些边界的法线与视线方向垂直。以下是具体的计算步骤:

计算步骤

  1. 边界法线与视线方向的关系
    在透视投影中,物体边界的法线 nbn_b 与视线方向 vbv_b 垂直,即:
    nbvb=0 n_b \cdot v_b = 0
    其中,nbn_b 是边界法线向量,vbv_b 是视线方向向量。

  2. 边界法线与图像坐标的关系
    由于物体边界的法线与视线方向垂直,因此法线向量可以表示为:
    nb=(nbx,nby,nbz) n_b = (n_{bx}, n_{by}, n_{bz})
    在图像坐标系中,这意味着边界法线向量与边界像素在图像中的梯度垂直。因此,我们可以通过计算图像梯度来近似法线向量:
    nb(Bx,By,1)=0 n_b \cdot (\partial B_x, \partial B_y, 1)^\top = 0
    其中,Bx\partial B_xBy\partial B_y 分别表示边界在x轴和y轴方向的梯度。

  3. 边界法线的近似计算
    在实际应用中,图像分辨率有限,物体的边界在图像中可能并不精确。为了提高计算精度,我们引入一个小的偏移量 β\beta,用于修正法线向量:
    nb=Nor(nbx,nby,nbz+β) n_b = \text{Nor}(n_{bx}, n_{by}, n_{bz} + \beta)
    其中,Nor表示向量归一化操作,β\beta 是一个小的常数偏移量。

示例说明

假设我们有一个物体的边界点 (x,y)(x, y),其在图像中的梯度为 Bx\partial B_xBy\partial B_y。我们希望计算该点的法线向量 nbn_b

  1. 计算图像梯度
    Bx=B(x+1,y)B(x1,y) \partial B_x = B(x + 1, y) - B(x - 1, y)
    By=B(x,y+1)B(x,y1) \partial B_y = B(x, y + 1) - B(x, y - 1)

  2. 计算初始法线向量
    nb=(Bx,By,1) n_b = (\partial B_x, \partial B_y, 1)

  3. 修正法线向量
    nb=Nor(Bx,By,1+β) n_b = \text{Nor}(\partial B_x, \partial B_y, 1 + \beta)

3.3. Framework of Spin-UP

形状模型

使用神经深度场(Neural Depth Field)表示3D表面。使用一个多层感知器(MLP)根据图像坐标预测深度值。为了计算法线,我们扩展了[16]中描述的法线拟合方法以适应透视投影。

材料模型

我们使用修改的Disney模型表示空间变化的各向同性反射率。漫反射率 ρd\rho_d 由另一个结构类似的MLP预测。空间变化的镜面反射率计算为12个球形高斯基函数的加权和,公式如下:
ρs=n=1NScnD(v,ω)F(h,ω)G(n,ω,v,λn)\rho_s = \sum_{n=1}^{NS} c^n D(v, \omega)F(h, \omega)G(n, \omega, v, \lambda^n)
其中 DDFFGG 分别表示微面法线分布、菲涅耳效应和自遮挡效应,vv 为视角方向,hh 为半角向量,计算公式为 h=(v+ω)/v+ωh = (v + \omega) / \|v + \omega\|λn\lambda^n 为粗糙度项,初始化为 (0.1+0.9(n1))/(NS1)(0.1 + 0.9(n - 1))/(NS - 1) 并设置为可学习参数,cnc^n 为由MLP预测的权重。

阴影模型

我们应用类似于[13]的方法的阴影掩码来处理投射阴影。

损失函数

与其他基于逆向渲染的方法类似,我们使用逆向渲染损失(即公式(1))来训练框架。我们采用三阶段训练架构,并使用平滑正则项(总变差正则化)来帮助收敛,计算公式为:
TV(.)=1NPi=1NP(.)x+(.)yTV(.) = \frac{1}{NP} \sum_{i=1}^{NP} \left| \frac{\partial (.)}{\partial x} + \frac{\partial (.)}{\partial y} \right|
其中 (x,y)(x, y) 为图像坐标。我们在法线图 NN、漫反射率图 AA 和材料的高斯基函数权重 cc 上实施 TV(.),并按照三阶段训练架构逐渐减少它。类似于[30],我们计算归一化颜色损失 Nor(A)Nor(I)\|Nor(A) - Nor(I)\|,其中 Nor(.) 为向量归一化函数。此外,参考[16],我们计算边界损失,为预计算和估计的边界法线之间的余弦相似度。

3.4. 训练策略

优化Spin-UP需要平滑正则项来促进收敛并避免局部最优。然而,这些正则项通常在全分辨率图像上实施,导致高计算成本。为了降低计算成本和提高模型的收敛速度,我们提出了两种训练策略:间隔采样(Interval Sampling,简称IS)和缩小范围计算(Shrinking Range Computing,简称SRC)。

间隔采样(Interval Sampling)

间隔采样是一种从图像中采样光线的策略,用于降低计算成本。与随机采样或基于块的采样不同,间隔采样可以保持物体的形状。具体操作如下:

  1. 图像分块
    首先,将全分辨率的图像划分成若干个不重叠的块,每个块包含 NB×NBN_B \times N_B 个像素点。

  2. 像素点提取
    从每个块中提取相同位置的像素点(例如,每个块的左上角像素),得到若干个分辨率较低的子图像。

  3. 子图像采样
    在训练过程中,这些子图像会在每个训练周期内随机采样。平滑正则项(例如总变差正则化)基于子图像的分辨率进行计算,这样既降低了计算成本,又确保了平滑正则项的有效性。

通过间隔采样,训练时间减少了一半(例如从每个物体平均60分钟减少到25分钟),同时GPU内存占用也降低了五倍(从25 GB减少到5 GB)。

缩小范围计算(Shrinking Range Computing)

缩小范围计算是一种用于在间隔采样过程中避免混叠(aliasing)问题的策略。由于在子图像分辨率下计算法线时需要四个相邻点的深度,可能会导致计算精度下降。为了解决这个问题,我们采用缩小范围计算策略:

  1. 使用全分辨率相邻点
    在子图像的每个像素进行法线计算时,使用全分辨率图像坐标系中相邻的四个点的深度值,而不是子图像中的相邻点。

  2. 逐步缩小范围
    在训练的早期阶段,选择距离查询点较远的相邻点(例如距离3个像素)进行法线计算,这样可以得到更平滑和稳定的法线图,有助于避免局部最优。在训练的后期,逐步选择距离查询点较近的相邻点,最终提高法线计算的精度。

为什么IS和SRC能提升性能

间隔采样(IS)

  1. 降低计算成本
    将全分辨率图像划分为多个低分辨率子图像,减少了每次训练迭代中需要处理的数据量。这样大大降低了计算成本和所需的GPU内存,从而加快了训练速度。

  2. 保持全局形状信息
    不同于随机采样或块采样,间隔采样能够保留物体的整体形状特征。这意味着在训练过程中,模型可以学习到更加全面的物体信息,避免因采样不均匀而丢失重要的结构信息。

  3. 有效的正则化
    通过在低分辨率子图像上计算平滑正则项(如总变差正则化),确保了这些正则项在训练过程中的有效性。同时,计算成本的降低使得可以在更多的迭代中应用正则化,进一步提高模型的泛化能力。

缩小范围计算(SRC)

  1. 提高法线计算的精度
    在子图像上直接计算法线时,由于分辨率降低,可能会导致法线计算不准确。缩小范围计算通过使用全分辨率图像坐标系中的相邻点来计算法线,确保了法线计算的精度。这有助于模型更准确地学习物体的几何信息。

  2. 避免局部最优
    在训练的早期阶段,使用距离查询点较远的相邻点进行法线计算,可以获得更加平滑和稳定的法线图。这种平滑的法线图有助于模型避免陷入局部最优解,从而提高全局收敛性。

  3. 逐步精细化
    在训练的后期,逐步缩小选择的相邻点范围,从较远的点逐渐过渡到较近的点,使得法线计算更加精细。这种逐步精细化的过程可以在保证初期全局收敛的基础上,进一步提升后期的局部精度,从而提高模型的整体性能。

透视投影下的法线计算

为了在透视投影下计算法线,我们扩展了[16]中描述的法线拟合方法。这个方法通过多层感知器(MLP)预测物体表面的深度值,然后通过这些深度值计算每个像素的法线。

具体步骤

  1. 深度值预测
    使用 MLP 根据图像中的每个像素的二维坐标预测深度值 zz。得到一个深度图 DD

  2. 相邻点的选择
    对于每个像素 pp,选择其周围的四个相邻点 p1,p2,p3,p4p_1, p_2, p_3, p_4,这些点的深度值分别为 z1,z2,z3,z4z_1, z_2, z_3, z_4

  3. 转换到相机坐标系
    将这些像素点从图像坐标系转换到相机坐标系。转换公式为:
    pk=(xkzkfsx,ykzkfsy,zk) p_k' = \left( \frac{x_k z_k}{f s_x}, \frac{y_k z_k}{f s_y}, z_k \right)
    其中 pk=(xk,yk,zk)p_k = (x_k, y_k, z_k)ff 是相机的焦距,sxs_xsys_y 分别是相机帧的宽度和高度的一半。

  4. 法线计算
    根据相邻点计算当前像素点的法线。法线 nn 可以通过以下公式计算:
    n=1k=14dkk=14dk(pk+1p)×(pkp) n = \frac{1}{\sum_{k=1}^{4} \|d_k\|} \sum_{k=1}^{4} \|d_k\| \left( p_{k+1}' - p' \right) \times \left( p_k' - p' \right)
    其中 dk=zk+zk+12zd_k = z_k + z_{k+1} - 2z

下面详细解释每个部分:

  1. 法线向量 nn
    法线向量 nn 是一个单位向量,表示表面在当前点的方向。

  2. 相邻点和当前点

    • pp:当前像素点的位置。
    • pkp_k:第 kk 个相邻像素点的位置。
    • pp':当前像素点的投影位置。
    • pkp_k':第 kk 个相邻像素点的投影位置。
  3. 深度值

    • zz:当前像素点的深度值。
    • zkz_k:第 kk 个相邻像素点的深度值。
  4. 深度差值 dkd_k
    dkd_k 用于表示相邻点的深度差值:
    dk=zk+zk+12zd_k = z_k + z_{k+1} - 2z

    这反映了相邻点与当前点之间的深度变化情况。

  5. 向量长度 dk\|d_k\|
    dk\|d_k\| 是深度差值 dkd_k 的绝对值,表示深度变化的程度。

  6. 叉积 (pk+1p)×(pkp)(p_{k+1}' - p') \times (p_k' - p')

    • pk+1pp_{k+1}' - p'pkpp_k' - p' 是两个相邻像素点与当前像素点之间的位移向量。
    • 叉积 (pk+1p)×(pkp)(p_{k+1}' - p') \times (p_k' - p') 计算的是这两个向量的法向量,即垂直于这两个向量的向量。
  7. 加权平均
    法线向量 nn 是通过对每个相邻点的法向量进行加权平均得到的,权重是深度差值的绝对值 dk\|d_k\|

  8. 归一化
    最后,法线向量 nn 被归一化,使其成为单位向量,即其长度为1。这通过除以所有权重的总和 k=14dk\sum_{k=1}^{4} \|d_k\| 实现。

综合以上解释,公式的含义是:通过计算相邻点与当前点之间的深度差值和位置差异来估计当前像素点的法线向量。公式考虑了深度变化的程度,并对相邻点的法线向量进行加权平均,从而得到一个准确的法线估计。

全流程

数据采集

  1. 设置旋转平台和相机

    • 准备一个可旋转的平台和固定的相机。
    • 将待拍摄的物体放置在平台中央,并确保相机对准物体。
  2. 旋转拍摄

    • 启动平台旋转,通常进行360度旋转。
    • 在旋转过程中,以固定角度间隔(例如每旋转2度)捕捉物体的图像,最终获得一组多角度图像。
  3. 图像处理

    • 对每个捕捉到的图像进行预处理,如去除噪声和校正颜色。
    • 确定每个图像中物体的边界,生成掩码以便后续处理。

数据预处理

  1. 深度图预测

    • 使用多层感知器(MLP)根据每个像素的二维图像坐标预测其深度值,生成深度图 DD
  2. 边界法线计算

    • 根据物体在图像中的边界,计算每个边界像素的梯度 Bx\partial B_xBy\partial B_y
    • 使用梯度计算初始法线向量 nb=(Bx,By,1)n_b = (\partial B_x, \partial B_y, 1)
    • 引入小偏移量 β\beta,修正法线向量 nb=Nor(Bx,By,1+β)n_b = \text{Nor}(\partial B_x, \partial B_y, 1 + \beta),其中Nor表示向量归一化。

渲染方程中的法线计算

  1. 选择相邻点

    • 对于每个像素 $ p $,选择其周围的四个相邻点 $ p_1, p_2, p_3, p_4 $,这些点的深度值分别为 $ z_1, z_2, z_3, z_4 $。
  2. 转换到相机坐标系

    • 将这些像素点从图像坐标系转换到相机坐标系:
      pk=(xkzkfsx,ykzkfsy,zk) p_k' = \left( \frac{x_k z_k}{f s_x}, \frac{y_k z_k}{f s_y}, z_k \right)
      其中 $ p_k = (x_k, y_k, z_k) f $ 是相机的焦距,$ s_x $ 和 $ s_y $ 分别是相机帧宽度和高度的一半。
  3. 法线计算

    • 使用下式计算法线:
      n=1k=14dkk=14dk((pk+1p)×(pkp)) n = \frac{1}{\sum_{k=1}^{4} \|d_k\|} \sum_{k=1}^{4} \|d_k\| \left( \left( p_{k+1}' - p' \right) \times \left( p_k' - p' \right) \right)
      其中 $ d_k = z_k + z_{k+1} - 2z $。

光初始化

  1. 边界处理

    • 提取输入图像中的边界像素 mbm_b 和法线 nbn_b
  2. 重映射

    • 将边界像素和法线重映射到球面,并根据对应的旋转矩阵 RR 进行旋转。
  3. 光探测优化

    • 根据边界像素构成的光探测器优化 SG 光模型,得到优化后的环境光。

训练策略

  1. 间隔采样(IS)

    • 将全分辨率图像划分为不重叠的块,每个块包含 NB×NBN_B \times N_B 像素点。
    • 从每个块中提取相同位置的像素点,生成低分辨率子图像。
    • 在训练过程中,这些子图像在每个周期内随机采样,平滑正则项基于子图像的分辨率进行计算。
  2. 缩小范围计算(SRC)

    • 在子图像分辨率下,使用全分辨率图像坐标系中的相邻点进行法线计算。
    • 在训练的早期阶段,选择距离查询点较远的相邻点进行法线计算,以获得更平滑和稳定的法线图。
    • 在训练的后期,逐步选择距离查询点较近的相邻点,最终提高法线计算的精度。

最终法线图生成

  1. 法线图优化

    • 使用优化后的法线和环境光模型,通过迭代优化,生成最终的法线图。
  2. 法线图输出

    • 输出生成的法线图,用于进一步的3D重建和渲染。

Related Work

低阶球谐函数 (SH)

赞赏