NeRF必读:Mip-NeRF总结与公式推导

[复制链接]
查看828 | 回复0 | 2023-8-23 12:09:53 | 显示全部楼层 |阅读模式


媒介

NeRF从2020年发展至今,仅仅三年时间,而Follow的工作已呈井喷之势,信赖在不久的将来,NeRF会一举重塑三维重修这个业界,乃至重修我们的四维世界(开头先吹一波)。NeRF的发展时间虽短,有几篇工作却在我研究的范畴开始出现万精油趋势:
* PixelNeRF----泛化法宝
* MipNeRF----近远景重修
* NeRF in the wild----光线变更下的配景重修
* Neus----用NeRF重修Surface
* Instant-NGP----多尺度Hash编码实现高效渲染




Abstract

由于远景近景的分辨率差别,导致经典NeRF对于多尺度场景的表达存在显着瑕疵:NeRF对于近景的重修比较模糊而对于远景的重修出现锯齿。简朴粗暴的策略是supersampling,但是费时费力。相较于NeRF利用的位置编码(PE)方式,Mip-NeRF提出了积分位置编码的方式(IPE).这种编码方式可以多尺度地形貌空间中的信息分布,make sense.

NeRF

Positional Encoding:

MLP:

Final Predicted Color of the Pixel:

 Loss Function:
    


此中是根据coarse modelinferene出的 颠末inverse transform sampling求解出的。

Mip-NeRF



NeRF通过point-sampling的方式对每个像素-->所对应的射线举行位置编码,而忽略了每个采样点所包罗的Shape, Volume等信息。
这导致了图中所示交汇处的黄点与蓝点会inference出相似的point-sampled feature. Mip-NeRF企图对Shape, Volume举行编码解决NeRF这一窘境。
MipNeRF对一段ray所代表的锥台地区的定义如下:


红框部分图示如下:

 OB即为红框中心部分求解效果,在之间

分别代表蓝框右式和左式。
渴望位置编码为:

但这个公式没有闭式解,作者转而利用多元高斯求近似值,那就是求解.  因为锥台是关于ray对称的,因此渴望值应该在ray上,关于渴望position,只必要求解ray上的渴望distance,令其为. 以及沿ray线的,以及垂直于ray的圆面所对应的.
先给结论,公式推导见公式推导章节:


将均值与方差从锥台坐标系转换到世界坐标系下:

举行Positional Encoding, 令:

 and

 根据下式可求解IPE闭式解:

 最后得到的IPE编码为:

公式推导:

下面来说(,,)分别是怎么求解的
作者在supplement内里给出了推导过程,以下联合推导过程举行一些阐明

此公式中需留意的是,是一个关于原点到成像平面像素中央的距离的比例系数(这句话有点绕,见下图)


以是说,当时,x和y就在描画该像素的赤色圆圈上。同理,当时,该地区就是形貌像素平面上该赤色圆圈以内地区。为了求解锥台的三维积分,我们必要求解出形貌三维空间的微分,如下所示:


 因此,锥台内的体积

 的渴望为:

 的渴望为:


的渴望为:

:

 


 文章中说r的方差可以用x的大概y的来代替,这个是为啥我还必要再研究下,接待大佬们留言。

 为了计算的稳定性,令, 将上式颠末等式变更后得到:


参考文献:
Barron, Jonathan T., et al. "Mip-nerf: A multiscale representation for anti-aliasing neural radiance fields." Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021.
Barron, Jonathan T., et al. "Mip-NeRF: A Multiscale Representation for Anti-Aliasing Neural Radiance Fields Supplemental Material."



来源:https://blog.csdn.net/i_head_no_back/article/details/129419735
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则