萧萧头下凹非庙

量子比特|公众号QbitAI

2D图片“脑补”3D模型,这次真的只需要一张图片。——

只要给AI喂一张照片,就可以从不同的角度制作“新视图”。

不仅可以处理360度的椅子和汽车,脸也可以形成新花样,从“死亡自拍”角度到低视图生成。

更有趣的是,这款名为Pix2NeRF的AI连训练用数据集都“与众不同”,在没有3D数据、多角度和相机参数的情况下,能够学会创造新的视角。(威廉莎士比亚,美国作家)。

可以说是又把NeRF系列的AI们卷上了一个新高度。

用GAN+自动编码器学会“脑补”

在此之前,NeRF能通过多视图训练AI模型,来让它学会生成新视角下的3D物体照片。

然而,这也导致一系列采用NeRF方法的模型,包括PixelNeRF和GRF,都需要利用多视图数据集才能训练出比较好的2D生成3D模型效果。

而多视图数据集往往有限,训练时间也比较长。

因此,作者们想出了一个新方法,也就是用自动编码器来提取物体姿态和形状特征,再用GAN直接生成全新的视角图片。

Pix2NeRF包含三种类型的网络架构,即生成网络G,判别网络D和编码器E。

其中,生成网络G和判别网络D组成生成对抗网络GAN,而编码器E和生成网络G用于构成自动编码器:

首先,自动编码器可以通过无监督学习,来获取输入图像的隐藏特征,包括物体姿态和物体形状,并利用学习到的特征重建出原始的数据;

然后,再利用GAN来通过姿态和形状数据,重构出与原来的物体形状不同的新视图。

这里研究人员采用了一种叫做π-GAN的结构,生成3D视角照片的效果相比其他类型的GAN更好(作者们还对比了采用HoloGAN的一篇论文):

那么,这样“混搭”出来的AI模型,效果究竟如何?

用糊图也能生成新视角

作者们先是进行了一系列的消融实验,以验证不同的训练方法和模型架构,是否真能提升Pix2NeRF的效果。

例如,针对模型去掉GAN逆映射、自动编码器,或不采用warmup针对学习率进行预热等,再尝试生成新视角的人脸:

其中,GAN逆映射(inversion)的目的是将给定的图像反转回预先训练的GAN模型的潜在空间中,以便生成器从反转代码中重建图像。

实验显示,除了完整模型(full model)以外,去掉各种方法的模型,生成人脸的效果都不够好。

随后,作者们又将生成照片的效果与其他生成新视图的AI模型进行了对比。

结果表明,虽然Pix2NeRF在ShapeNet-SRN的生成效果上没有PixelNeRF好,但效果也比较接近:

而在CelebA和CARLA数据集上,Pix2NeRF基本都取得了最好的效果。

而且模型还自带一些“美颜”功能,即使是糊图送进去,也能给GAN出更丝滑的轮廓:

整体而言,除了人脸能生成不同角度的新视图以外,物体还能脑补出360°下不同姿态的效果:

看来,AI也和人类一样,学会“脑补”没见过的物体形状了。

作者介绍

这次论文的作者均来自苏黎世联邦理工学院(ETH)。

论文一作Shengqu Cai,ETH硕士研究生,本科毕业于伦敦国王学院,研究方向是神经渲染、生成模型和无监督学习等,高中毕业于辽宁省实验中学。

Anton Obukhov,ETH博士生,此前曾在英伟达等公司工作,研究方向是计算机视觉和机器学习。

Dengxin Dai,马普所高级研究员和ETH(外部)讲师,研究方向是自动驾驶、传感器融合和有限监督下的目标检测。

Luc Van Gool,ETH计算机视觉教授,谷歌学术上的引用量达到15w+,研究方向主要是2D和3D物体识别、机器人视觉和光流等。

目前这项研究的代码还在准备中。

感兴趣的小伙伴可以蹲一波了~

论文地址:

项目地址:

参考链接:
[1]
[2]
[3]
[4]

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

1.《怎么把2d转成3d看这里!一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹,ETH出品》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。

2.《怎么把2d转成3d看这里!一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹,ETH出品》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。

3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/gl/3270896.html