训练NeRF只需5秒?!英伟达这项新技术给谷歌研究员整不会了 | 开源

栏目:科技资讯  时间:2023-08-15
手机版

  

  本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

   “这太疯狂了!”

  “18个月前,训练NeRF需要5小时…”

  “2个月前,训练NeRF需要是5分钟!”

  “现在,训练NeRF需要5秒!!??”

  究竟发生了什么?竟让谷歌研究科学家惊叹至此。

  (插播一下此前风靡的NeRF模型:伯克利&谷歌联合打造,少数静态图生成3D逼真效果)

  而且类似的评价还有很多~

  介绍这项技术的博文也热度非常,不到一天时间就收获了上千赞。

  原来,这是来自于英伟达的最新技术——基于多分辨率哈希编码的即时神经图形基元。

  一只狐狸NeRF模型的只需要训练5秒钟!

  而且不光训练NeRF,该技术还在其他任务上也达到了惊人的训练速度。

  实现了几个数量级的组合加速。

  能够在几秒钟内训练高质量的神经图形基元,并在几十毫秒内渲染分辨率1920x1080的图形。

  先来看效果。

  

  有没有种在实验室的眩晕感,这是来自iPhone视频训练5分钟的360度实时渲染效果~

  还有想以34张真实照片重构的3D图像~

  

  除了NeRF之外吗,还有三个神经图形基元的实现。

  Gigapixel Image

  

  作者还友情提示,网络是从头开始训练的,如果眨眼的话,可能会错过它。

  

  

  每种情况都是用tiny-cuda-nn框架训练和渲染的,本次实验是在RTX 3090测试的。

  以全连接网络为参数的神经图形基元,训练和评估成本较高。

  本文使用了一种多功能的新输入编码来降低成本。

  这种编码允许在不牺牲质量的情况下使用更小的网络,从而大大减少浮点数和内存访问数量。

  具体而言,一个小型神经网络通过可训练特征向量的多分辨率哈希表进行扩充。这些特征向量的值通过随机梯度下降优化。

  换句话说,这种编码与任务无关。

  研究团队表示,他们在所有任务中都使用相同的案例和超参数,只改变了哈希表的大小。

  目前该项目已开源,感兴趣的旁友可戳下方链接~

  GitHub链接:

  https://github.com/NVlabs/instant-ngp

  论文链接:

  https://nvlabs.github.io/instant-ngp/assets/mueller2022instant.pdf

  项目链接:

  https://nvlabs.github.io/instant-ngp/

  

   

  

   

   

上一篇:干部述职述廉报告
下一篇:恋尸癖