检查曩昔的相片可以在必定程度上协助人们重温一些最宝贵的时间。上一年12月,Google推出了Cinematic相片,这是Google相册中的一项新功用,旨在重现相片拍照时的沉溺感,并经过揣度图画中的3D表明来模仿相机的运动和视差。在本文中,Google将研讨此进程背面的技能,并演示Cinematic相片怎么将曩昔的2D相片转换为更具感同身受的3D动画。
像许多最新的核算拍照功用(例如人像形式和增强实际(AR))相同,电影相片也需求深度图来供给有关场景3D结构的信息。在智能手机上核算深度的典型技能依赖于多视角立体,这是一种几许办法,可经过一起捕获不同角度(已知相机之间的间隔)的多张相片来处理场景中物体的深度。在Pixel手机中,视图来自两个摄像头或双像素传感器。
为了在没有以多视图立体声拍照的现有相片上启用电影相片,Google训练了具有编码器-解码器体系结构的卷积神经网络,以仅从单个RGB图画中猜测深度图。该模型仅运用一个视图就学会了运用单眼头绪来估量深度,例如物体的相对巨细,线性透视图,散焦含糊等。