媒介
NeRF从2020年发展至今,仅仅三年时间,而Follow的工作已呈井喷之势,信赖在不久的将来,NeRF会一举重塑三维重修这个业界,乃至重修我们的四维世界(开头先吹一波)。NeRF的发展时间虽短,有几篇工作却在我研究的范畴开始出现万精油趋势:
* PixelNeRF----泛化法宝
* MipNeRF----近远景重修
* NeRF in the wild----光线变更下的配景重修
* Neus----用NeRF重修Surface
* Instant-NGP----多尺度Hash编码实现高效渲染

Abstract
由于远景近景的分辨率差别,导致经典NeRF对于多尺度场景的表达存在显着瑕疵:NeRF对于近景的重修比较模糊而对于远景的重修出现锯齿。简朴粗暴的策略是supersampling,但是费时费力。相较于NeRF利用的位置编码(PE)方式,Mip-NeRF提出了积分位置编码的方式(IPE).这种编码方式可以多尺度地形貌空间中的信息分布,make sense.
NeRF
Positional Encoding:
MLP:

Final Predicted Color of the Pixel:
Loss Function:
此中 是根据coarse modelinferene出的 颠末inverse transform sampling求解出的。
Mip-NeRF
NeRF通过point-sampling的方式对每个像素-->所对应的射线举行位置编码,而忽略了每个采样点所包罗的Shape, Volume等信息。
这导致了图中所示交汇处的黄点与蓝点会inference出相似的point-sampled feature. Mip-NeRF企图对Shape, Volume举行编码解决NeRF这一窘境。
MipNeRF对一段ray所代表的锥台地区的定义如下:
红框部分图示如下:

OB即为红框中心部分求解效果,在 之间

分别代表蓝框右式和左式。
渴望位置编码为:
但这个公式没有闭式解,作者转而利用多元高斯求近似值,那就是求解 . 因为锥台是关于ray对称的,因此渴望值应该在ray上,关于渴望position,只必要求解ray上的渴望distance,令其为 . 以及沿ray线的 ,以及垂直于ray的圆面所对应的 .
先给结论,公式推导见公式推导章节:

将均值与方差从锥台坐标系转换到世界坐标系下:

举行Positional Encoding, 令:

and

根据下式可求解IPE闭式解:

最后得到的IPE编码为:

公式推导:
下面来说( , , )分别是怎么求解的
作者在supplement内里给出了推导过程,以下联合推导过程举行一些阐明
此公式中需留意的是, 是一个关于原点到成像平面像素中央的距离 的比例系数(这句话有点绕,见下图)

以是说,当 时,x和y就在描画该像素的赤色圆圈上。同理,当 时,该地区就是形貌像素平面上该赤色圆圈以内地区。为了求解锥台的三维积分,我们必要求解出形貌三维空间的微分,如下所示:

因此,锥台内的体积

的渴望为:

的渴望为:

的渴望为:

:



文章中说r的方差可以用x的大概y的来代替,这个是为啥我还必要再研究下,接待大佬们留言。

为了计算的稳定性,令 , 将上式颠末等式变更后得到:
参考文献:
Barron, Jonathan T., et al. "Mip-nerf: A multiscale representation for anti-aliasing neural radiance fields." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021.
Barron, Jonathan T., et al. "Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields Supplemental Material."
来源:https://blog.csdn.net/i_head_no_back/article/details/129419735
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |